AI dalam kewangan hanya sekuat ketahanan dan kebolehpercayaan sistem di belakangnya. Ketahui bagaimana bank, insurans dan fintech boleh membina AI yang benar-benar boleh dipercayai.
AI Kewangan: Ketahanan & Kebolehpercayaan Dulu, Glamour Kemudian
Pada 2024, Bank Negara melaporkan lebih 30 juta transaksi tanpa tunai sehari di Malaysia. Tambah pula e-dompet, BNPL, insurans digital – hampir setiap ringgit bergerak melalui sistem yang disokong AI dan automasi. Bila satu komponen tergendala sejam, kesannya bukan sekadar “sedikit lambat”, tapi boleh mencecah jutaan ringgit nilai transaksi tertangguh.
Kebanyakan institusi kewangan teruja dengan potensi AI: pengesanan penipuan waktu nyata, pemarkahan kredit automatik, chatbot 24/7, model risiko yang lebih tepat. Tapi ramai terperangkap pada satu kesilapan yang sama: fokus pada kepintaran AI, tapi memandang ringan aspek ketahanan (resilience) dan kebolehpercayaan (reliability) sistem.
Dalam siri AI in Financial Services (Banks, Insurance, Fintech) ini, artikel ini menekankan satu perkara mudah: AI dalam kewangan hanya sekuat infrastruktur yang menampungnya. Kita akan lihat mengapa ketahanan dan kebolehpercayaan perlu menjadi asas, bagaimana ia berkait dengan risiko siber, penipuan pintar, dan tekanan pematuhan – dan apa yang praktikal untuk bank, insurans dan fintech di Malaysia lakukan pada 2025/2026.
1. Kenapa Ketahanan Adalah Asas Kejayaan AI Kewangan
AI kewangan yang berjaya bukan sekadar “pintar”; ia mesti terus berfungsi bila dunia di luar tidak stabil.
CEO Reiknistofa Bankanna (RB), Ragnhildur Geirsdóttir, menekankan dalam satu sesi industri: tak kira sehebat mana teknologi baru, “jaminan paling penting ialah resiliency dan reliability.” Pandangan ini kena tepat dengan realiti sektor kewangan Malaysia yang berdepan:
- ketegangan geopolitik yang menjejaskan rantaian bekalan dan rangkaian global,
- serangan siber yang semakin canggih,
- ledakan transaksi digital sepanjang tahun (bukan musim perayaan saja).
Apa maksud ketahanan dalam konteks AI kewangan?
Dalam perbankan, insurans dan fintech, ketahanan operasi (operational resilience) biasanya merangkumi:
- RPO & RTO yang jelas: berapa banyak data dibenarkan hilang (Recovery Point Objective) dan berapa cepat sistem mesti pulih (Recovery Time Objective) bila AI fraud engine, core banking atau payment switch jatuh.
- Reka bentuk ‘failover’ dan redundansi: model AI, data pipeline dan API mesti ada pelan sandaran, bukan “single point of failure”.
- Ujian tekanan (stress test) senario ekstrem: bukan sahaja beban tinggi semasa jualan 12.12, tetapi juga serangan DDoS, ralat data besar-besaran, atau rakan ekosistem yang gagal.
Saya selalu lihat projek AI gagal bukan sebab model tak tepat, tapi sebab sistem sekeliling tak bersedia untuk:
- volum data masa nyata,
- integrasi dengan sistem legasi,
- keperluan ketersediaan hampir 24/7.
Realitinya: AI yang mantap memerlukan ‘plumbing’ yang mantap. Tanpa itu, setiap inisiatif AI mudah menjadi “proof of concept” yang cantik dalam slaid, tapi tak pernah benar-benar production-ready.
2. Kebolehpercayaan: Kenapa 99.9% Kadang-Kadang Tak Cukup
Dalam kewangan, kebolehpercayaan bukan sekadar uptime tinggi; ia bermaksud sistem bertindak konsisten dan boleh dijangka pada setiap masa.
Untuk AI, ada dua sisi kebolehpercayaan yang sering bercampur:
- Kebolehpercayaan sistem – API, pangkalan data, model serving, integration bus.
- Kebolehpercayaan keputusan AI – skor kredit, isyarat fraud, cadangan pelaburan, flag AML.
Kedua-dua sisi ini memberi impak terus kepada reputasi dan pematuhan.
Tiga sebab kebolehpercayaan AI tak boleh dikompromi
1. Pengesanan penipuan (fraud detection)
Jika AI fraud engine tergendala 2 jam semasa puncak transaksi hujung minggu, dua perkara boleh berlaku:
- transaksi berisiko tinggi “terlepas” ke dalam sistem, atau
- terlalu banyak transaksi sah di-“block”, dan pelanggan marah di kaunter atau media sosial.
Kedua-duanya membawa kos kewangan dan kos reputasi.
2. Pemarkahan kredit automatik
Model kredit yang tidak konsisten – contohnya, kelulusan berbeza pada profil yang sama kerana ralat data atau model – akan:
- membuka ruang dipersoal dari sudut keadilan dan bias,
- mengundang perhatian pengawal selia bila corak penolakan tak masuk akal muncul dalam audit.
3. Pematuhan & pelaporan regulatori
Untuk AML, pelaporan transaksi mencurigakan, dan keperluan risiko BNM/IFSB, AI mesti:
- audit-able: setiap keputusan ada jejak data dan log,
- reproducible: keputusan boleh diulang bila regulator minta bukti,
- explainable: sebab model membuat keputusan boleh difahami manusia.
Jika model tak boleh dipercayai, bank dan insurans akan “lari balik” kepada proses manual, membatalkan semua pelaburan AI.
3. Manusia, AI & “Human Touchpoints” Yang Masih Wajib Ada
AI boleh automasi banyak benda, tapi dalam kewangan, manusia masih menjadi ‘suis keselamatan’ utama.
Ragnhildur menegaskan: walaupun integrasi AI penting, kita tetap perlu mengekalkan sentuhan manusia dalam proses teknikal. Untuk konteks Malaysia, ini sangat relevan dalam beberapa situasi:
Di mana manusia wajib kekal dalam loop
-
Kes fraud bernilai tinggi atau kompleks
- AI beri ‘risk score’, manusia siasat konteks – terutamanya bila melibatkan akaun bisnes, transaksi rentas sempadan, atau corak yang belum biasa.
-
Keputusan kredit “borderline”
- Untuk segmen B40, gig worker, atau SME mikro, data formal sering tidak lengkap.
- AI boleh kelaskan risiko, tapi pegawai kredit masih perlu menilai dokumen sokongan, tingkah laku pembayaran, atau faktor kualitatif.
-
Pengurusan krisis & “exception handling”
- Bila sistem AI bermasalah, manusia perlu ada kuasa:
- override keputusan model,
- mengaktifkan prosedur manual,
- berkomunikasi dengan pelanggan dengan cepat dan jelas.
- Bila sistem AI bermasalah, manusia perlu ada kuasa:
-
Urusan pelanggan sensitif
- Tuntutan insurans kematian, penstrukturan semula hutang, kes penipuan yang menjejaskan simpanan seumur hidup – pelanggan jarang mahu bercakap dengan bot.
Pendek kata: AI buat kerja berat di belakang tabir, manusia menguruskan situasi bernilai tinggi dan beremosi tinggi. Institusi yang cuba menggantikan manusia sepenuhnya biasanya akan mendapat tentangan pelanggan dan pengawal selia.
4. Ancaman Sebenar: Penipuan Pintar & Risiko Luaran Berkumpulan
Teknologi AI bukan saja digunakan oleh bank dan fintech – penipu pun guna AI. Deepfake suara, mesej sosial yang sangat meyakinkan, laman phishing yang hampir sama dengan asal – semua ini “menaik taraf” permainan penipu.
Ragnhildur menekankan: fokus utama sekarang adalah berkolaborasi melawan risiko luaran yang meningkat, seperti penipuan pintar (intelligent fraud).
Kenapa kolaborasi lebih penting daripada sekadar beli lebih banyak tools
-
Penipu berkongsi taktik merentasi negara dan platform.
Kalau bank dan fintech bertahan secara silo, mereka sentiasa berada setapak di belakang. -
Data fraud yang kaya datang dari pelbagai sumber:
- transaksi kad,
- pemindahan wang segera,
- insurans (tuntutan palsu),
- pinjaman mikro dan BNPL,
- platform e-dagang dan dompet digital.
-
Satu institusi jarang nampak gambar penuh.
Penipu mungkin menguji taktik di fintech kecil sebelum menyerang bank besar. Tanpa perkongsian pola fraud, semua orang jadi mangsa eksperimen.
Bentuk kolaborasi yang praktikal untuk Malaysia
Tanpa menyentuh nama program tertentu, beberapa pendekatan biasa yang berkesan:
-
Consortium AI model untuk fraud detection
Model dibina atas data dipseudonimkan dari beberapa institusi. Hasilnya:- kadar pengesanan (hit rate) lebih tinggi,
- corak baru dikesan lebih awal.
-
Pusat pemantauan fraud industri
Pasukan pakar dari pelbagai bank, insurans dan fintech yang:- berkongsi isyarat awal (early warning),
- mengeluarkan “alert” untuk taktik baru.
-
Standard teknikal dan data yang selaras
Bila format data, kod transaksi dan definisi metrik risiko diseragamkan, AI lebih mudah dilatih merentasi institusi.
Inilah maksud sebenar “resilience by design”: bukan hanya kuat secara dalaman, tapi kuat kerana ekosistem yang bergerak seiring.
5. Rangka Kerja Praktikal: Cara Memastikan AI Anda Tahan Lasak & Boleh Dipercayai
Ada cara yang agak jelas – walaupun tidak selalu mudah – untuk menjadikan projek AI anda lebih tahan dan boleh dipercayai. Saya pecahkan kepada lima langkah yang boleh digunakan oleh bank, insurans dan fintech.
5.1 Mulakan dengan “criticality map” sistem AI
Jangan layan semua projek AI sama penting. Kenal pasti:
- sistem yang “mission critical” (fraud, core payments, AML),
- sistem yang “business enhancing” (cadangan produk, chatbot am),
- sistem yang “eksperimen” (pilot dalaman, POC kecil).
Untuk setiap kategori, tetapkan:
- sasaran uptime (contoh: 99.99% untuk fraud, 99.5% untuk eksperimen),
- RTO & RPO,
- tahap pemantauan (monitoring) yang diperlukan.
5.2 Reka bentuk arkitektur AI yang tahan gangguan
Beberapa prinsip asas yang selalu berkesan:
- Microservices & containerisation untuk komponen AI, supaya kegagalan satu model tak menjatuhkan keseluruhan sistem.
- Model fallback – bila model utama gagal atau melampaui ambang ketidaktentuan, sistem kembali kepada:
- model lama yang lebih stabil, atau
- set peraturan (rules-based) yang konservatif.
- Data pipeline yang dipantau rapi – banyak isu “AI rosak” sebenarnya bermula dengan data yang kotor atau hilang.
5.3 Bangunkan budaya “site reliability” untuk pasukan AI
AI tak boleh lagi jadi projek “lab data sains” yang terpisah daripada realiti operasi. Apa yang bagus:
- pasukan data/AI dan pasukan IT operasi berkongsi:
- metrik kejayaan (SLA, SLO),
- dashboard pemantauan,
- jadual post-mortem bila ada insiden.
- On-call rotation untuk sistem AI kritikal – bukan bermaksud 24/7 bekerja, tetapi ada struktur tindak balas bila alert muncul.
5.4 Uji krisis sebelum krisis sebenar
Kebanyakan organisasi hanya uji AI dari sudut ketepatan model. Itu tak cukup. Tambah:
- drill pemadaman sistem – apa berlaku bila model hosting jatuh?
- latihan “data poisoning” atau input pelik – bagaimana model bertindak bila menerima corak data luar biasa?
- uji beban (load testing) pada peak season – terutama untuk fintech dan e-dompet.
Bila latihan ini dibuat secara berkala, pasukan lebih yakin menguruskan kejutan dunia sebenar.
5.5 Kekalkan kepercayaan pelanggan melalui komunikasi jujur
Dalam sektor kewangan Malaysia, reputasi ialah aset. AI yang gagal secara senyap dan tiada penjelasan akan cepat menghakis kepercayaan. Jadi:
- bila ada gangguan, berikan status jelas dan garis masa pemulihan,
- bila AI menolak kredit atau menandakan transaksi, sediakan penjelasan ringkas yang boleh difahami,
- berikan saluran untuk rayuan atau semakan manual.
Pelanggan tak marah kerana AI wujud. Mereka marah bila mereka rasa tidak adil dan tidak didengar.
6. Langkah Seterusnya Untuk Bank, Insurans & Fintech di Malaysia
Realitinya, AI dalam perkhidmatan kewangan Malaysia bukan lagi “nice to have”; ia sudah jadi asas daya saing. Tetapi asas sebenar bukan model AI paling canggih – ia adalah:
- ketahanan sistem menghadapi kejutan geopolitik, serangan siber dan lonjakan transaksi, dan
- kebolehpercayaan keputusan dalam fraud, kredit dan pematuhan.
Kalau anda terlibat dalam transformasi digital atau inisiatif AI organisasi, tanya tiga soalan praktikal ini minggu ini:
- Sistem AI mana yang paling kritikal kepada aliran wang dan pematuhan kami – dan adakah ia benar-benar tahan gangguan?
- Jika model utama gagal malam ini, adakah kami ada fallback plan yang jelas?
- Adakah kami berkongsi maklumat risiko dan penipuan dengan ekosistem – atau kami berjuang seorang diri?
Institusi kewangan yang menang dalam 2026 bukan semestinya yang paling pantas melancarkan chatbot baru. Yang menang ialah yang boleh berkata dengan yakin kepada pelanggan dan pengawal selia:
“AI kami bukan saja pintar, tapi juga tahan lasak, konsisten dan boleh dipercayai – walaupun dalam keadaan paling tidak menentu.”
Jika organisasi anda serius tentang AI dalam kewangan, inilah masa yang sesuai – sebelum tahun kewangan baharu – untuk menyemak semula strategi ketahanan dan kebolehpercayaan anda, sebelum anda tambah lagi satu projek AI ke dalam senarai.