AI & Risiko Insurans: Pelajaran dari Strategi AXA

AI dalam Insurans dan Pengurusan Risiko••By 3L3C

Strategi AXA menapis pelaburan pusat data AI dan mengetatkan private credit. Ini pelajaran praktikal untuk underwriting, pemodelan risiko dan risiko siber berasaskan AI.

AIInsuransPengurusan RisikoRisiko SiberUnderwritingPusat DataPrivate Credit
Share:

Featured image for AI & Risiko Insurans: Pelajaran dari Strategi AXA

AI & Risiko Insurans: Pelajaran dari Strategi AXA

Menjelang hujung tahun, satu perkara jadi makin jelas: AI bukan lagi sekadar projek inovasi—ia sudah menjadi komponen risiko kewangan. Pada 12/12/2025, AXA menyatakan mereka masih yakin AI ialah trend struktur jangka sederhana, tetapi mereka lebih selektif dalam membiayai infrastruktur AI seperti pusat data, dan pada masa sama mengetatkan pendedahan kepada private credit.

Ramai orang salah faham di sini. Mereka anggap bila syarikat besar ā€œmemperlahankanā€ pelaburan AI, itu tanda AI makin pudar. Saya tak setuju. Yang sebenarnya berlaku: pengurusan risiko AI semakin matang. AXA sedang buat apa yang patut dibuat oleh sesiapa yang serius tentang underwriting, pemodelan risiko, dan ketahanan portfolio—pilih pertaruhan yang boleh diukur, dan elak yang terlalu khusus.

Artikel ini relevan untuk siri ā€œAI dalam Insurans dan Pengurusan Risikoā€ kerana ia menunjukkan sisi yang jarang dibincangkan: bukan ā€œberapa cepat kita boleh guna AIā€, tetapi bagaimana kita tetapkan risk appetite AI supaya syarikat tak terperangkap dalam aset dan model yang tak tahan ujian masa.

Kenapa AXA ā€˜memegang brek’ pada pusat data AI?

Jawapan ringkas: kerana pusat data AI boleh jadi aset yang cepat ā€œusangā€ jika ia terlalu bergantung pada satu teknologi atau satu pelanggan.

Dalam berita tersebut, AXA menyebut kebimbangan terhadap pusat data yang terlalu terspesialisasi—dibina khas untuk pemain tertentu atau stack teknologi tertentu. Logiknya mudah: bila teknologi berubah (dan AI memang berubah pantas), aset yang terlalu khusus akan susah disewakan semula, susah dibiayai semula, dan sukar dinilai nilainya.

AXA memilih fokus kepada pusat data general-purpose dengan keupayaan inference. Ini lebih ā€œmasuk akalā€ dari sudut risiko kerana inference (menjalankan model untuk kegunaan sebenar) cenderung lebih stabil permintaannya berbanding latihan model besar-besaran yang memerlukan belanja modal sangat tinggi dan kitaran naik turun.

Risiko ā€˜asset-stranding’ dalam pusat data

Dalam insurans, kita kenal konsep stranded asset—aset yang masih wujud secara fizikal tetapi nilainya jatuh mendadak kerana perubahan pasaran, peraturan, atau teknologi. Untuk pusat data AI, risiko ini muncul bila:

  • Perkakasan jadi usang dalam 18–36 bulan kerana generasi cip baharu
  • Reka bentuk elektrik/penyejukan tak sesuai untuk beban kerja baharu
  • Pusat data terlalu bergantung pada kontrak satu penyewa (single-tenant)
  • Kebergantungan pada vendor/stack tertentu menyebabkan kos migrasi terlalu mahal

Bagi insurer dan pengurus risiko, ini bukan isu ā€œteknologiā€ semata-mata. Ini isu kebolehramalan aliran tunai dan kecairan bila berlaku tekanan pasaran.

Apa kaitannya dengan underwriting?

Ini pelajaran yang ramai terlepas: cara AXA menilai pusat data AI sama seperti cara underwriter yang baik menilai risiko kompleks—mereka cari ciri yang meningkatkan ā€œkebolehpasaran semulaā€ (re-marketability) dan mengurangkan kebarangkalian kerugian sistemik.

Dalam konteks underwriting korporat atau insurans komersial untuk pusat data, soalan yang patut jadi standard:

  1. Adakah fasiliti ini multi-tenant atau single-tenant?
  2. Berapa peratus hasil datang daripada 1–2 pelanggan terbesar?
  3. Adakah reka bentuk menyokong beban kerja pelbagai (AI, cloud, enterprise)?
  4. Tahap redundansi kuasa, keselamatan fizikal, dan incident response?

Kalau jawapan terlalu ā€œterikatā€ pada satu pelanggan/stack, premium patut mencerminkan itu—atau underwriter patut berani kata ā€œtidakā€.

AI dalam insurans: pilih kegunaan yang boleh diukur, bukan projek terlalu tersuai

Jawapan terus: AI memberi nilai paling tinggi dalam insurans bila ia digunakan untuk keputusan yang berulang, data yang mencukupi, dan KPI yang jelas.

AXA menyebut mereka mahu mengelak ā€œpertaruhan teknologiā€. Dalam dunia insurans, versi paling biasa ā€œpertaruhan teknologiā€ ialah projek AI yang:

  • terlalu custom untuk satu unit bisnes
  • bergantung pada data yang kualitinya tak konsisten
  • tak ada metrik prestasi yang disepakati
  • sukar diaudit bila regulator bertanya

Saya pernah lihat organisasi membina model yang sangat canggih, tetapi bila ditanya, ā€œApa definisi risiko tinggi?ā€ atau ā€œApa ambang kelulusan?ā€ā€”jawapan jadi kabur. Itu bukan AI problem. Itu governance problem.

Gunakan AI untuk mengukuhkan risk appetite, bukan menggantikannya

AI yang berkesan dalam underwriting dan pemodelan risiko biasanya fokus pada 3 perkara:

  • Konsistensi keputusan (kurangkan variasi antara underwriter)
  • Kelajuan triage (asingkan kes mudah vs kes kompleks)
  • Isyarat awal risiko (early warning) untuk portfolio

Contoh aplikasi yang praktikal:

  • Skor risiko cyber berasaskan telemetri (bukan semata soal selidik)
  • Pengesanan penipuan tuntutan menggunakan analitik corak + rangkaian
  • Model ramalan kebarangkalian lapse untuk produk hayat
  • NLP untuk ekstrak data daripada dokumen tuntutan atau laporan audit

Yang penting: AI mesti boleh dijelaskan (explainable) pada tahap operasi. Kalau tidak, ia akan jadi liabiliti.

Ancaman siber AI baharu: bila satu salah konfigurasi jadi risiko sistemik

Jawapan ringkas: alat AI yang menyambungkan banyak sistem boleh mempercepatkan serangan dan membesarkan impak.

Artikel asal menyentuh kebimbangan komuniti risiko siber terhadap teknologi baharu seperti Model Context Protocol (MCP) yang membolehkan agen AI mengakses pelbagai sumber data dan sistem. Realitinya begini: bila kita sambungkan AI kepada lebih banyak sistem, kita mencipta permukaan serangan yang lebih luas.

Dalam insurans, isu ini bukan sekadar ā€œpelanggan kena hackā€. Ia juga boleh menjadi:

  • kerugian terkumpul (aggregation loss) merentas banyak insured
  • gangguan operasi dalaman (contoh: sistem tuntutan atau billing)
  • pertikaian perlindungan polisi (coverage disputes) bila deepfake/fraud meningkat

Satu salah konfigurasi pada alat AI yang terintegrasi boleh merebak lebih cepat daripada kawalan yang sempat mengejarnya.

Checklist pengurusan risiko AI siber yang patut jadi kebiasaan

Jika anda insurer, broker, atau risk manager, ini antara kawalan praktikal yang saya anggap ā€œwajib adaā€ bila AI mula dihubungkan ke sistem teras:

  • Inventori integrasi: senarai sistem apa yang AI boleh akses, dan tahap aksesnya
  • Least privilege: akses minimum, bukan akses ā€œuntuk memudahkanā€
  • Logging & audit trail: siapa buat apa, bila, dan melalui alat AI apa
  • Pengasingan persekitaran (segmentation) antara data sensitif dan umum
  • Ujian red-team khusus untuk workflow AI (prompt injection, data exfiltration)

Kawalan ini juga membantu underwriter cyber menilai risiko secara lebih objektif—bukan sekadar berdasarkan ā€œkita ada polisi keselamatanā€.

Private credit dan ā€˜disiplin’ yang sama: dokumentasi, tempoh pendek, dan semakan pantas

Jawapan terus: bila pasaran private credit membesar pantas, risiko tersembunyi biasanya datang daripada struktur, bukan tajuk pelaburan.

AXA dilaporkan mempunyai sekitar €65 bilion dalam private dan structured credit, lebih kurang 14% daripada jumlah deployment, dengan kira-kira 84% bertaraf investment grade. Mereka menekankan:

  • kualiti dokumentasi
  • tempoh matang yang lebih pendek
  • semakan portfolio yang dipercepat (line by line)
  • elak pendedahan kepada pertaruhan teknologi dan pengguna subprima

Ini sangat selari dengan pengurusan risiko insurans: bila ketidaktentuan meningkat, anda menang dengan disiplin proses, bukan dengan ā€œfirman keyakinanā€.

Apa yang insurer boleh tiru daripada pendekatan ini?

Jika anda mengurus portfolio underwriting atau risiko perusahaan (ERM), ada tiga amalan yang patut ditiru:

  1. Semakan pendedahan secara granular
    Bukan cukup lihat agregat. Lihat konsentrasi vendor, geografi, dan model perniagaan.

  2. Hadkan pendedahan pada risiko yang sukar dinilai
    Teknologi terlalu khusus dan struktur kredit terlalu kompleks biasanya memerlukan premium modal yang lebih tinggi.

  3. Kitaran semakan lebih kerap bila pasaran panas
    Bila aliran wang ā€œastronomikalā€ masuk ke satu tema (contoh: pusat data AI), itu isyarat untuk mengetatkan kriteria, bukan melonggarkannya.

Rangka kerja praktikal: menilai risiko AI seperti menilai risiko insurans

Jawapan ringkas: pecahkan risiko AI kepada kebolehpindahan (transferability), kebolehjelasan (explainability), dan kebolehtahanan (resilience).

Kalau anda sedang membina strategi AI untuk insurans—sama ada underwriting, tuntutan, fraud, atau risiko siber—guna rangka kerja 3T ini:

1) Transferability (boleh dipindah guna)

  • Model boleh digunakan merentas produk/segmen?
  • Data input stabil dan standard?
  • Vendor lock-in rendah?

Jika terlalu tersuai, kos penyelenggaraan akan naik, dan manfaat akan cepat ā€œhilangā€.

2) Traceability (boleh dijejak & diaudit)

  • Keputusan model ada alasan yang boleh dibaca manusia?
  • Ada audit trail?
  • Boleh jawab soalan regulator dan pelanggan?

Dalam insurans, reputasi boleh jatuh hanya kerana satu keputusan yang tak boleh dijelaskan.

3) Toughness (tahan lasak)

  • Ada pelan untuk drift data dan drift model?
  • Ada kawalan keselamatan untuk prompt injection dan kebocoran data?
  • Ada prosedur fallback manual bila sistem gagal?

AI yang bagus bukan yang ā€œpaling pintarā€. AI yang bagus ialah yang tetap berfungsi bila keadaan tak ideal.

Apa patut dibuat oleh insurer, broker, dan risk manager pada Q1 2026

Jawapan terus: tetapkan polisi risk appetite AI dan ukur pendedahan secara konsisten—terutamanya untuk pusat data, cyber, dan vendor AI.

Bila masuk Q1 (lepas cuti hujung tahun), ramai organisasi akan menyusun bajet dan pelan projek. Ini 7 tindakan yang boleh dibuat dalam 30–60 hari:

  1. Tetapkan risk appetite AI bertulis (projek apa yang ā€œbolehā€, apa yang ā€œtidakā€)
  2. Wujudkan senarai semak underwriting untuk risiko pusat data (multi-tenant, kontrak, resilien, keselamatan)
  3. Audit integrasi AI dalaman: sistem apa yang AI boleh akses hari ini
  4. Wajibkan logging dan audit trail untuk workflow AI yang menyentuh data pelanggan
  5. Jalankan penilaian vendor AI: SLA, lokasi data, pemilikan model, pelan pemulihan bencana
  6. Kemas kini model agregasi untuk risiko siber (scenario deepfake, supply-chain, AI agent)
  7. Latih pasukan underwriting/claims dengan ā€œplaybookā€ AI—bukan sekadar latihan alat

Ini semua bukan kerja glamor. Tapi inilah kerja yang menurunkan risiko sebenar.

Penutup: AI masih trend struktur—cuma sekarang kita lebih tegas

Pendekatan AXA menghantar mesej yang saya rasa wajar untuk industri: AI memang trend jangka sederhana, tetapi disiplin risiko mesti mendahului hype. Dalam pelaburan pusat data, mereka pilih yang general-purpose dan elak yang terlalu khusus. Dalam private credit, mereka tekankan dokumentasi, tempoh matang, dan semakan yang ketat.

Untuk siri ā€œAI dalam Insurans dan Pengurusan Risikoā€, pelajarannya jelas: AI yang memberi nilai ialah AI yang membantu kita menetapkan risk appetite, memperkemas pemilihan risiko, dan mengesan ancaman lebih awal—bukan AI yang sekadar nampak canggih.

Jika anda sedang mempertimbangkan AI untuk underwriting, pemodelan risiko, tuntutan, atau cyber—bagaimana organisasi anda membezakan antara penggunaan AI yang boleh diukur dan pertaruhan teknologi yang susah dipertahankan bila pasaran berubah?