AI mempercepat underwriting dan tuntutan, tetapi juga mencipta pengecualian dan jurang risiko baharu menjelang 2026. Ini cara menutup jurang itu.

AI & Insurans 2026: Lindungi Polisi Daripada Jurang Risiko
Kadar insurans harta (property) pada 2025 bukan sekadar “turun sikit”. Dalam banyak pembaharuan polisi, penurunan kadar dilaporkan daripada single digit tinggi hingga melebihi 25%. Pada masa yang sama, pasaran masih menanggung musim ribut konvektif yang teruk dan anggaran AS$42 bilion kerugian diinsuranskan—tetapi keputusan keseluruhan dianggap “boleh diurus”, dan nisbah gabungan industri mencecah 89.1% pada S3.
Ini gambaran yang buat ramai organisasi jadi terlalu selesa: harga nampak lebih mesra, kapasiti global bertambah, program berlapis mudah terlebih langgan. Namun menjelang 2026, ada satu perubahan yang lebih besar daripada kadar—AI sedang mengubah cara risiko dinilai, diluluskan, dan dituntut. Dan yang lebih penting: AI sedang mencipta jurang perlindungan baharu melalui pengecualian polisi, semakan kawal selia, dan produk khusus (termasuk laluan E&S di pasaran tertentu).
Dalam siri “AI dalam Insurans dan Pengurusan Risiko”, saya suka menekankan satu prinsip: teknologi bukan hanya menambah kelajuan; ia menukar bentuk risiko. Artikel asal tentang laporan “State of the Market 2026” (Amwins) memberi isyarat jelas—AI mempercepat underwriting dan tuntutan, tetapi pada masa sama menolak industri ke arah bahasa polisi baharu, pengunderaitan lebih ketat untuk pendedahan tertentu, dan pengkhususan perlindungan.
AI menjadikan underwriting lebih pantas—tetapi lebih “tajam”
Jawapan ringkas: AI mempercepat keputusan underwriting dan membezakan risiko dengan lebih halus, jadi organisasi yang “nampak sama” pada borang permohonan boleh dilayan sangat berbeza pada harga dan terma.
Dalam operasi insurans moden, AI digunakan untuk:
- Pengayaan data: memadankan maklumat permohonan dengan data luaran (operasi, kewangan, lokasi, pendedahan bencana, profil siber).
- Skor risiko automatik: memudahkan penentuan kelas risiko, had perlindungan, dan deduktibel.
- Pengesanan anomali: mengesan ketidakselarasan yang biasanya terlepas dalam semakan manual.
Bagi pembeli insurans (syarikat, SME, pengurus risiko), kesannya jelas: kelulusan lebih cepat, tetapi toleransi terhadap “data kabur” makin rendah. Saya pernah lihat organisasi yang sebelum ini mudah dapat sebut harga, kini diminta bukti kawalan (controls) yang lebih spesifik—contohnya prosedur akses data, log audit, atau tadbir urus vendor.
Realiti 2026: “Kurang cerita, lebih bukti”
Menjelang 2026, trend yang logik ialah:
- Keputusan lebih cepat, tetapi permintaan dokumen lebih terperinci.
- Segmentasi risiko lebih ekstrem: dua syarikat dalam industri sama boleh dapat syarat yang jauh berbeza.
- Terma polisi lebih dipengaruhi data (bukan hanya naratif broker).
Kalau organisasi anda menggunakan AI (untuk khidmat pelanggan, automasi dokumen, analitik, penentuan harga, atau pengesanan penipuan), anda perlu bersedia untuk soalan underwriting yang lebih tajam: AI jenis apa? Data apa? Siapa vendor? Bagaimana diuji? Apa pelan jika model silap?
Pengecualian risiko AI: ini punca jurang perlindungan baharu
Jawapan ringkas: Pengecualian AI dalam polisi akan memindahkan sebahagian risiko daripada insurer kepada insured—dan banyak organisasi hanya sedar selepas insiden berlaku.
Laporan yang dirujuk menyebut ramai insurer sudah mula memperkenalkan bahasa pengecualian berkaitan risiko AI, dan beberapa pemfailan dijangka berkuat kuasa awal 2026. Ini bukan pelik. Bila teknologi baru memperkenalkan pendedahan baru, insurer akan:
- mengehadkan skop perlindungan,
- memperincikan definisi insiden,
- memperketat syarat pematuhan,
- atau menawarkan endorsement khusus dengan premium tambahan.
Tiga pendedahan AI yang paling kerap “mengganggu” polisi
-
Ralat algoritma (algorithmic error)
- Contoh: model menolak permohonan pelanggan secara salah atau memberi cadangan yang memudaratkan.
- Risiko: tuntutan liabiliti profesional, litigasi, kerosakan reputasi.
-
Salah guna data (data misuse)
- Contoh: data latihan (training data) mengandungi maklumat sensitif atau dilanggar lesen penggunaannya.
- Risiko: tuntutan privasi, denda pematuhan, kos pemulihan.
-
Kegagalan sistem autonomi (autonomous system failure)
- Contoh: automasi keputusan yang “terlepas pandang” dan menyebabkan gangguan operasi.
- Risiko: gangguan perniagaan, kerugian pihak ketiga, isu kontrak.
Kalau anda bergantung pada polisi sedia ada (contohnya liabiliti am, siber, PI/D&O) tanpa semakan definisi dan pengecualian terkini, anda mungkin sedang memegang polisi yang nampak lengkap tetapi berlubang bila insiden berkaitan AI berlaku.
Ayat yang patut ditampal di bilik mesyuarat pengurusan risiko: “AI mempercepat kerja, tetapi juga mempercepat punca tuntutan.”
Apa maksud “pasaran semakin seimbang” untuk pembeli insurans di Malaysia/Asia?
Jawapan ringkas: Walaupun laporan asal berasaskan pasaran AS, coraknya relevan di Asia—kapasiti dan kadar boleh berubah mengikut segmen, tetapi standard underwriting akan naik untuk risiko kompleks (terutama siber, liabiliti profesional, dan pendedahan berkaitan AI).
Laporan tersebut menyebut pasaran “rebalance”: segmen berbeza mengalami keadaan kadar yang berbeza. Ini penting untuk pengurus risiko kerana strategi pembaharuan polisi pada 2026 tidak boleh “satu resipi untuk semua”.
Property: kompetitif, tapi bencana tak menunggu
Property dilihat paling kompetitif menjelang 2026, dipacu kapasiti global dan program berlapis yang terlebih langgan. Namun, angka AS$42 bilion kerugian diinsuranskan akibat ribut dan kebakaran menunjukkan satu hakikat: harga boleh lembut, tetapi volatiliti bencana iklim kekal.
Untuk organisasi yang mempunyai banyak lokasi, gudang, atau operasi rantaian bekalan, AI boleh jadi alat pengurusan risiko yang praktikal:
- pemetaan pendedahan lokasi (banjir, ribut, kebakaran),
- ramalan gangguan rantaian bekalan,
- pemantauan keadaan aset (IoT + analitik).
Kelebihannya bukan untuk “nampak canggih”, tetapi untuk mengurangkan frekuensi tuntutan dan menambah keyakinan underwriter.
Casualty & auto-heavy: lebih banyak semakan, lebih banyak bukti
Casualty bergerak perlahan; banyak pembaharuan kekal rata atau pelarasan kecil. Tetapi akaun yang berat auto, entiti awam, dan pengangkutan menerima semakan lebih ketat—ditambah pula dengan tekanan social inflation dan pembiayaan litigasi yang menaikkan keterukan tuntutan.
AI di sini berguna untuk:
- analitik punca kemalangan (telemetri + pola pemanduan),
- pengesanan penipuan tuntutan,
- triage tuntutan untuk mengurangkan kos guaman.
Namun, penggunaan AI juga memerlukan “pagar”: polisi pengurusan model, audit keputusan, dan dokumentasi.
Professional lines (D&O, EPL, “cyber-adjacent”): fokus pada tadbir urus
D&O dilaporkan cenderung rata, tanda pasaran yang mula mendatar selepas tempoh penurunan. Untuk EPL dan pendedahan berhampiran siber, underwriting lebih teliti kerana aktiviti pengawalseliaan dan keperluan pendedahan.
Jika organisasi anda menggunakan AI untuk HR (saringan CV, penilaian prestasi, jadual kerja), risiko EPL boleh meningkat apabila keputusan AI dipertikai. Ini bukan isu “teknologi salah”, tetapi isu tadbir urus: adakah anda boleh jelaskan rasional keputusan? Adakah ada semakan manusia? Adakah data berat sebelah?
Pelan tindakan 60 hari: kurangkan jurang risiko AI sebelum pembaharuan polisi
Jawapan ringkas: Tiga kerja paling bernilai ialah inventori AI, semakan polisi/pengecualian, dan bukti kawalan (controls) yang boleh ditunjukkan kepada insurer.
Di hujung tahun (Disember) ramai organisasi sedang mengemas kini bajet, KPI, dan pelan 2026. Ini masa yang sesuai untuk “kemas rumah” sebelum pembaharuan polisi.
1) Buat inventori penggunaan AI—bukan sekadar senarai aplikasi
Sediakan satu helaian yang menjawab:
- AI digunakan untuk fungsi apa (tuntutan, pemasaran, HR, sokongan pelanggan, pematuhan)?
- Data apa yang digunakan (peribadi, kewangan, kesihatan, data pihak ketiga)?
- Adakah AI membuat keputusan atau sekadar memberi cadangan?
- Siapa vendor dan apakah SLA serta tanggungjawab kontrak?
Ini memudahkan broker/insurer menilai pendedahan secara tepat.
2) Semak polisi untuk “bahasa AI” dan pengecualian tersirat
Bila semak polisi, cari perkara berikut:
- definisi computer system, data, technology services,
- pengecualian berkait AI, algoritma, autonomi, model,
- syarat notifikasi insiden, sub-limits, dan deduktibel,
- konflik antara polisi (contohnya siber vs PI).
Saya tegas di sini: jangan tunggu selepas insiden untuk tahu polisi tak menyokong.
3) Sediakan bukti kawalan yang underwriter suka
Bukan perlu “perfect”. Perlu boleh dibuktikan. Contohnya:
- polisi pengurusan akses dan log audit,
- proses ujian model (accuracy, bias, drift),
- human-in-the-loop untuk keputusan berimpak tinggi,
- pelan tindak balas insiden (termasuk deepfake/fraud),
- latihan pekerja tentang penggunaan AI dan data.
4) Pilih strategi pemindahan risiko: beli, tambah, atau bina buffer
Tidak semua risiko perlu dipindah kepada insurer. Untuk risiko tertentu, gabungan ini lebih realistik:
- tambah perlindungan/endorsement khusus,
- kukuhkan kontrak vendor (indemnity, liability cap yang munasabah),
- wujudkan risk buffer dalaman (reserve, BCP, redundansi).
Soalan lazim: apa yang patut ditanya sebelum 2026?
“Adakah polisi siber saya automatik melindungi insiden AI?”
Tidak semestinya. Banyak polisi siber fokus pada pelanggaran data, ransomware, dan gangguan rangkaian. Insiden AI seperti ralat algoritma yang mencetuskan kerugian pihak ketiga boleh jatuh di zon kelabu—bergantung pada definisi dan pengecualian.
“Kalau kami guna AI pihak ketiga, risiko itu tanggung vendor kan?”
Kontrak boleh membantu, tetapi pihak yang disaman biasanya pemilik proses dan jenama. Vendor mungkin ada had liabiliti yang rendah atau pengecualian kontrak. Anggap vendor sebagai lapisan perlindungan, bukan pelindung mutlak.
“AI buat tuntutan lebih cepat—adakah itu bermakna kos turun?”
Kelajuan membantu kos operasi, ya. Tetapi keterukan tuntutan (terutama litigasi, privasi, dan reputasi) masih boleh tinggi. AI juga membuka ruang penipuan baharu (contohnya deepfake), yang boleh menaikkan kos jika kawalan lemah.
Apa yang saya jangka paling ‘menentukan’ pada 2026
AI akan jadi pembeza utama antara organisasi yang hanya membeli insurans dan organisasi yang mengurus risiko secara matang. Pasaran mungkin lebih lembut dalam segmen tertentu, tetapi insurer akan semakin jelas: siapa yang ada tadbir urus AI yang kemas akan dapat terma yang lebih masuk akal.
Jika anda mahu masuk 2026 dengan lebih yakin, mulakan dengan satu langkah yang mudah tetapi berkesan: selaraskan pasukan teknologi, pematuhan, undang-undang, dan pengurusan risiko dalam satu meja—dan semak bagaimana AI digunakan, apa yang boleh gagal, dan bagaimana polisi insurans anda akan bertindak.
Saya nak tinggalkan anda dengan satu soalan yang biasanya memisahkan organisasi yang “selamat” dan yang “sibuk memadam api”: bila AI di organisasi anda buat silap besar, adakah anda boleh buktikan anda sudah buat kawalan yang munasabah—dan adakah polisi anda memang akan membayar?