Strategi AXA menapis pelaburan pusat data AI dan mengetatkan private credit. Ini pelajaran praktikal untuk underwriting, pemodelan risiko dan risiko siber berasaskan AI.

AI & Risiko Insurans: Pelajaran dari Strategi AXA
Menjelang hujung tahun, satu perkara jadi makin jelas: AI bukan lagi sekadar projek inovasiāia sudah menjadi komponen risiko kewangan. Pada 12/12/2025, AXA menyatakan mereka masih yakin AI ialah trend struktur jangka sederhana, tetapi mereka lebih selektif dalam membiayai infrastruktur AI seperti pusat data, dan pada masa sama mengetatkan pendedahan kepada private credit.
Ramai orang salah faham di sini. Mereka anggap bila syarikat besar āmemperlahankanā pelaburan AI, itu tanda AI makin pudar. Saya tak setuju. Yang sebenarnya berlaku: pengurusan risiko AI semakin matang. AXA sedang buat apa yang patut dibuat oleh sesiapa yang serius tentang underwriting, pemodelan risiko, dan ketahanan portfolioāpilih pertaruhan yang boleh diukur, dan elak yang terlalu khusus.
Artikel ini relevan untuk siri āAI dalam Insurans dan Pengurusan Risikoā kerana ia menunjukkan sisi yang jarang dibincangkan: bukan āberapa cepat kita boleh guna AIā, tetapi bagaimana kita tetapkan risk appetite AI supaya syarikat tak terperangkap dalam aset dan model yang tak tahan ujian masa.
Kenapa AXA āmemegang brekā pada pusat data AI?
Jawapan ringkas: kerana pusat data AI boleh jadi aset yang cepat āusangā jika ia terlalu bergantung pada satu teknologi atau satu pelanggan.
Dalam berita tersebut, AXA menyebut kebimbangan terhadap pusat data yang terlalu terspesialisasiādibina khas untuk pemain tertentu atau stack teknologi tertentu. Logiknya mudah: bila teknologi berubah (dan AI memang berubah pantas), aset yang terlalu khusus akan susah disewakan semula, susah dibiayai semula, dan sukar dinilai nilainya.
AXA memilih fokus kepada pusat data general-purpose dengan keupayaan inference. Ini lebih āmasuk akalā dari sudut risiko kerana inference (menjalankan model untuk kegunaan sebenar) cenderung lebih stabil permintaannya berbanding latihan model besar-besaran yang memerlukan belanja modal sangat tinggi dan kitaran naik turun.
Risiko āasset-strandingā dalam pusat data
Dalam insurans, kita kenal konsep stranded assetāaset yang masih wujud secara fizikal tetapi nilainya jatuh mendadak kerana perubahan pasaran, peraturan, atau teknologi. Untuk pusat data AI, risiko ini muncul bila:
- Perkakasan jadi usang dalam 18ā36 bulan kerana generasi cip baharu
- Reka bentuk elektrik/penyejukan tak sesuai untuk beban kerja baharu
- Pusat data terlalu bergantung pada kontrak satu penyewa (single-tenant)
- Kebergantungan pada vendor/stack tertentu menyebabkan kos migrasi terlalu mahal
Bagi insurer dan pengurus risiko, ini bukan isu āteknologiā semata-mata. Ini isu kebolehramalan aliran tunai dan kecairan bila berlaku tekanan pasaran.
Apa kaitannya dengan underwriting?
Ini pelajaran yang ramai terlepas: cara AXA menilai pusat data AI sama seperti cara underwriter yang baik menilai risiko kompleksāmereka cari ciri yang meningkatkan ākebolehpasaran semulaā (re-marketability) dan mengurangkan kebarangkalian kerugian sistemik.
Dalam konteks underwriting korporat atau insurans komersial untuk pusat data, soalan yang patut jadi standard:
- Adakah fasiliti ini multi-tenant atau single-tenant?
- Berapa peratus hasil datang daripada 1ā2 pelanggan terbesar?
- Adakah reka bentuk menyokong beban kerja pelbagai (AI, cloud, enterprise)?
- Tahap redundansi kuasa, keselamatan fizikal, dan incident response?
Kalau jawapan terlalu āterikatā pada satu pelanggan/stack, premium patut mencerminkan ituāatau underwriter patut berani kata ātidakā.
AI dalam insurans: pilih kegunaan yang boleh diukur, bukan projek terlalu tersuai
Jawapan terus: AI memberi nilai paling tinggi dalam insurans bila ia digunakan untuk keputusan yang berulang, data yang mencukupi, dan KPI yang jelas.
AXA menyebut mereka mahu mengelak āpertaruhan teknologiā. Dalam dunia insurans, versi paling biasa āpertaruhan teknologiā ialah projek AI yang:
- terlalu custom untuk satu unit bisnes
- bergantung pada data yang kualitinya tak konsisten
- tak ada metrik prestasi yang disepakati
- sukar diaudit bila regulator bertanya
Saya pernah lihat organisasi membina model yang sangat canggih, tetapi bila ditanya, āApa definisi risiko tinggi?ā atau āApa ambang kelulusan?āājawapan jadi kabur. Itu bukan AI problem. Itu governance problem.
Gunakan AI untuk mengukuhkan risk appetite, bukan menggantikannya
AI yang berkesan dalam underwriting dan pemodelan risiko biasanya fokus pada 3 perkara:
- Konsistensi keputusan (kurangkan variasi antara underwriter)
- Kelajuan triage (asingkan kes mudah vs kes kompleks)
- Isyarat awal risiko (early warning) untuk portfolio
Contoh aplikasi yang praktikal:
- Skor risiko cyber berasaskan telemetri (bukan semata soal selidik)
- Pengesanan penipuan tuntutan menggunakan analitik corak + rangkaian
- Model ramalan kebarangkalian lapse untuk produk hayat
- NLP untuk ekstrak data daripada dokumen tuntutan atau laporan audit
Yang penting: AI mesti boleh dijelaskan (explainable) pada tahap operasi. Kalau tidak, ia akan jadi liabiliti.
Ancaman siber AI baharu: bila satu salah konfigurasi jadi risiko sistemik
Jawapan ringkas: alat AI yang menyambungkan banyak sistem boleh mempercepatkan serangan dan membesarkan impak.
Artikel asal menyentuh kebimbangan komuniti risiko siber terhadap teknologi baharu seperti Model Context Protocol (MCP) yang membolehkan agen AI mengakses pelbagai sumber data dan sistem. Realitinya begini: bila kita sambungkan AI kepada lebih banyak sistem, kita mencipta permukaan serangan yang lebih luas.
Dalam insurans, isu ini bukan sekadar āpelanggan kena hackā. Ia juga boleh menjadi:
- kerugian terkumpul (aggregation loss) merentas banyak insured
- gangguan operasi dalaman (contoh: sistem tuntutan atau billing)
- pertikaian perlindungan polisi (coverage disputes) bila deepfake/fraud meningkat
Satu salah konfigurasi pada alat AI yang terintegrasi boleh merebak lebih cepat daripada kawalan yang sempat mengejarnya.
Checklist pengurusan risiko AI siber yang patut jadi kebiasaan
Jika anda insurer, broker, atau risk manager, ini antara kawalan praktikal yang saya anggap āwajib adaā bila AI mula dihubungkan ke sistem teras:
- Inventori integrasi: senarai sistem apa yang AI boleh akses, dan tahap aksesnya
- Least privilege: akses minimum, bukan akses āuntuk memudahkanā
- Logging & audit trail: siapa buat apa, bila, dan melalui alat AI apa
- Pengasingan persekitaran (segmentation) antara data sensitif dan umum
- Ujian red-team khusus untuk workflow AI (prompt injection, data exfiltration)
Kawalan ini juga membantu underwriter cyber menilai risiko secara lebih objektifābukan sekadar berdasarkan ākita ada polisi keselamatanā.
Private credit dan ādisiplinā yang sama: dokumentasi, tempoh pendek, dan semakan pantas
Jawapan terus: bila pasaran private credit membesar pantas, risiko tersembunyi biasanya datang daripada struktur, bukan tajuk pelaburan.
AXA dilaporkan mempunyai sekitar ā¬65 bilion dalam private dan structured credit, lebih kurang 14% daripada jumlah deployment, dengan kira-kira 84% bertaraf investment grade. Mereka menekankan:
- kualiti dokumentasi
- tempoh matang yang lebih pendek
- semakan portfolio yang dipercepat (line by line)
- elak pendedahan kepada pertaruhan teknologi dan pengguna subprima
Ini sangat selari dengan pengurusan risiko insurans: bila ketidaktentuan meningkat, anda menang dengan disiplin proses, bukan dengan āfirman keyakinanā.
Apa yang insurer boleh tiru daripada pendekatan ini?
Jika anda mengurus portfolio underwriting atau risiko perusahaan (ERM), ada tiga amalan yang patut ditiru:
-
Semakan pendedahan secara granular
Bukan cukup lihat agregat. Lihat konsentrasi vendor, geografi, dan model perniagaan. -
Hadkan pendedahan pada risiko yang sukar dinilai
Teknologi terlalu khusus dan struktur kredit terlalu kompleks biasanya memerlukan premium modal yang lebih tinggi. -
Kitaran semakan lebih kerap bila pasaran panas
Bila aliran wang āastronomikalā masuk ke satu tema (contoh: pusat data AI), itu isyarat untuk mengetatkan kriteria, bukan melonggarkannya.
Rangka kerja praktikal: menilai risiko AI seperti menilai risiko insurans
Jawapan ringkas: pecahkan risiko AI kepada kebolehpindahan (transferability), kebolehjelasan (explainability), dan kebolehtahanan (resilience).
Kalau anda sedang membina strategi AI untuk insuransāsama ada underwriting, tuntutan, fraud, atau risiko siberāguna rangka kerja 3T ini:
1) Transferability (boleh dipindah guna)
- Model boleh digunakan merentas produk/segmen?
- Data input stabil dan standard?
- Vendor lock-in rendah?
Jika terlalu tersuai, kos penyelenggaraan akan naik, dan manfaat akan cepat āhilangā.
2) Traceability (boleh dijejak & diaudit)
- Keputusan model ada alasan yang boleh dibaca manusia?
- Ada audit trail?
- Boleh jawab soalan regulator dan pelanggan?
Dalam insurans, reputasi boleh jatuh hanya kerana satu keputusan yang tak boleh dijelaskan.
3) Toughness (tahan lasak)
- Ada pelan untuk drift data dan drift model?
- Ada kawalan keselamatan untuk prompt injection dan kebocoran data?
- Ada prosedur fallback manual bila sistem gagal?
AI yang bagus bukan yang āpaling pintarā. AI yang bagus ialah yang tetap berfungsi bila keadaan tak ideal.
Apa patut dibuat oleh insurer, broker, dan risk manager pada Q1 2026
Jawapan terus: tetapkan polisi risk appetite AI dan ukur pendedahan secara konsistenāterutamanya untuk pusat data, cyber, dan vendor AI.
Bila masuk Q1 (lepas cuti hujung tahun), ramai organisasi akan menyusun bajet dan pelan projek. Ini 7 tindakan yang boleh dibuat dalam 30ā60 hari:
- Tetapkan risk appetite AI bertulis (projek apa yang ābolehā, apa yang ātidakā)
- Wujudkan senarai semak underwriting untuk risiko pusat data (multi-tenant, kontrak, resilien, keselamatan)
- Audit integrasi AI dalaman: sistem apa yang AI boleh akses hari ini
- Wajibkan logging dan audit trail untuk workflow AI yang menyentuh data pelanggan
- Jalankan penilaian vendor AI: SLA, lokasi data, pemilikan model, pelan pemulihan bencana
- Kemas kini model agregasi untuk risiko siber (scenario deepfake, supply-chain, AI agent)
- Latih pasukan underwriting/claims dengan āplaybookā AIābukan sekadar latihan alat
Ini semua bukan kerja glamor. Tapi inilah kerja yang menurunkan risiko sebenar.
Penutup: AI masih trend strukturācuma sekarang kita lebih tegas
Pendekatan AXA menghantar mesej yang saya rasa wajar untuk industri: AI memang trend jangka sederhana, tetapi disiplin risiko mesti mendahului hype. Dalam pelaburan pusat data, mereka pilih yang general-purpose dan elak yang terlalu khusus. Dalam private credit, mereka tekankan dokumentasi, tempoh matang, dan semakan yang ketat.
Untuk siri āAI dalam Insurans dan Pengurusan Risikoā, pelajarannya jelas: AI yang memberi nilai ialah AI yang membantu kita menetapkan risk appetite, memperkemas pemilihan risiko, dan mengesan ancaman lebih awalābukan AI yang sekadar nampak canggih.
Jika anda sedang mempertimbangkan AI untuk underwriting, pemodelan risiko, tuntutan, atau cyberābagaimana organisasi anda membezakan antara penggunaan AI yang boleh diukur dan pertaruhan teknologi yang susah dipertahankan bila pasaran berubah?