Kes ghost gun di AS tunjuk “accident” dalam polisi bukan kosmetik. Ketahui cara AI bantu tafsir terma, kesan jurang liputan, dan kurangkan pertikaian.

AI & Terma Polisi: Elak Pertikaian Liputan Risiko Baharu
Pada 10/12/2025, sebuah mahkamah rayuan persekutuan di AS memutuskan dua penanggung insurans—Granite State dan National Union—tak wajib membela atau membayar tuntutan terhadap peruncit senjata api yang disaman kerana penjualan kit senjata “ghost gun” (senjata sukar dikesan). Keputusan ini nampak jauh dari realiti pasaran Malaysia, tapi mesejnya sangat dekat dengan kerja harian insurans: perkataan “kemalangan” dalam polisi bukan sekadar formaliti—ia menentukan sama ada syarikat insurans akan menanggung bil atau tidak.
Lebih menarik, kes ini menyerlahkan satu masalah yang saya kerap nampak di lapangan: banyak pertikaian liputan bukan bermula di mahkamah—ia bermula di peringkat underwriting dan semakan dokumen. Dalam dunia risiko baharu (produk “kelabu” dari segi regulasi, pemasaran agresif, rantaian bekalan digital, dan liabiliti sosial), AI dalam insurans dan pengurusan risiko boleh jadi “radar awal” untuk mengesan jurang liputan, bahasa polisi yang mengundang salah faham, dan corak tuntutan yang boleh dijangka.
Apa yang mahkamah putuskan (dan kenapa ia penting)
Intinya mudah: jika tuntutan mendakwa perniagaan membuat tindakan yang disengajakan dan kesannya boleh dijangka, ia biasanya bukan “accident/occurrence” di bawah polisi liabiliti am standard.
Dalam kes ini, polisi melindungi kerosakan badan atau harta hanya jika berpunca daripada “occurrence” yang ditakrif sebagai accident (kemalangan). Pihak berkuasa (negeri dan bandar) mendakwa peruncit tersebut:
- sengaja mereka bentuk dan memasarkan produk untuk mengelak peraturan senjata api,
- menghantar lebih 25,000 bungkusan ke New York dalam tempoh enam tahun,
- menyediakan jig, arahan, dan sokongan pelanggan untuk membantu pembeli menyiapkan senjata sukar dikesan,
- dan kesan akhirnya: peningkatan keganasan senjata yang memaksa kerajaan tempatan menanggung kos polis, hospital, dan perkhidmatan komuniti.
Mahkamah menggunakan logik dua langkah (di bawah undang-undang Texas):
- Adakah tindakan itu sengaja/berniat? Ya.
- Adakah kecederaan/kerugian itu sesuatu yang boleh dijangka daripada tindakan tersebut? Ya.
Jadi, tiada kewajipan defend (duty to defend) dan, dalam konteks kes ini, tiada kewajipan indemnify (duty to indemnify).
“Bahasa ‘occurrence’ dan ‘accident’ masih membawa makna. Tindakan sengaja dengan hasil yang dijangka bukan kemalangan.”
Untuk industri, ini bukan sekadar cerita “ghost gun”. Ia tentang tingkah laku perniagaan yang disengajakan, pemasaran, pemilihan pelanggan, dan pematuhan—semua ini kini menjadi punca litigasi liabiliti moden.
“Lapan Penjuru” dan realiti kerja insurans: keputusan dibuat atas kertas
Keputusan ini banyak bergantung pada konsep yang serupa dengan apa yang penanggung insurans lakukan setiap hari: menganalisis liputan berdasarkan dokumen.
Di Texas, mahkamah guna eight-corners rule—hakim hanya melihat:
- 4 penjuru polisi (terma, definisi, pengecualian), dan
- 4 penjuru dokumen tuntutan/saman (allegations dalam plaint).
Mereka tak tunggu bukti sebenar keluar. Maksudnya: ayat yang ditulis dalam dokumen saman boleh menentukan sama ada insurans ‘masuk’ atau ‘keluar’.
Dalam operasi insurans, ini mengajar dua perkara:
- Bahasa polisi mesti cukup jelas untuk membezakan kemalangan vs tindakan sengaja.
- Pasukan underwriting/claims perlu ada cara pantas untuk membaca pola tuduhan dan memetakan kepada terma polisi.
Dan di sinilah AI mula jadi praktikal, bukan sekadar “projek inovasi”.
Peranan AI: dari “baca dokumen” kepada “mengurangkan pertikaian”
AI yang paling bernilai dalam kes begini bukan AI yang “meneka keputusan mahkamah”. Yang bernilai ialah AI yang membantu organisasi mengurangkan kebarangkalian masuk ke mahkamah.
1) AI untuk tafsiran terma polisi & pengesanan jurang liputan
Model NLP (pemprosesan bahasa semula jadi) boleh digunakan untuk:
- mengekstrak definisi kritikal seperti “occurrence”, “accident”, “expected or intended injury”, dan pengecualian berkaitan;
- membandingkan polisi merentas tahun, produk, atau penanggung insurans (versi A vs B);
- mengesan frasa yang sering mencetus pertikaian, contohnya bila polisi terlalu bergantung pada definisi umum tanpa contoh situasi.
Secara praktikal, AI boleh “flag” polisi yang berisiko tinggi dipertikaikan kerana:
- definisi kabur;
- pengecualian tidak selari dengan profil perniagaan;
- tambahan endorsement yang bercanggah antara satu sama lain.
Kesan bisnes: kurang kejutan semasa tuntutan, kurang kos guaman, dan rundingan yang lebih cepat.
2) AI untuk penilaian risiko tingkah laku (conduct risk) dalam underwriting
Kes “ghost gun” sebenarnya kes conduct risk: pemasaran, pemilihan pelanggan, dan niat untuk mengelak regulasi.
AI boleh membantu underwriting dengan menggabungkan isyarat-isyarat seperti:
- bahan pemasaran (web, katalog, iklan), termasuk nada “workaround”;
- corak jualan/edaran (misalnya penghantaran ke lokasi berisiko atau segmen pelanggan tertentu);
- aduan pelanggan dan rekod pematuhan;
- struktur produk: adakah ia “dual-use” (boleh digunakan secara sah dan disalah guna).
Bukan untuk “menghukum” insured—tetapi untuk memastikan:
- terma dan syarat sesuai dengan risiko,
- harga premium munasabah,
- dan yang paling penting: jangkaan insured terhadap liputan selari dengan realiti polisi.
3) AI untuk ramalan litigasi dan triage tuntutan
Satu lagi aplikasi yang terus menjimatkan masa ialah model triage untuk tuntutan liabiliti kompleks:
- menganggarkan kebarangkalian pertikaian liputan;
- mengenal pasti tuntutan yang patut diberi perhatian awal oleh counsel;
- mengesyorkan strategi: defend penuh, reservation of rights, atau declaratory action (mengikut kerangka undang-undang setempat).
Model sebegini tak perlu “sempurna”. Kalau ia membantu pasukan claims membezakan 50 fail biasa daripada 5 fail berprofil litigasi tinggi, ROI sudah jelas.
Risiko baharu yang serupa dengan “ghost gun” (dalam konteks lebih luas)
Walaupun “ghost gun” adalah konteks AS, coraknya wujud dalam banyak industri:
Produk atau servis yang “legal tapi mudah disalah guna”
Contoh generik yang sering timbul dalam liabiliti:
- komponen/kit yang memudahkan pengubahsuaian produk berisiko;
- marketplace yang menjual item sensitif;
- perkhidmatan digital yang boleh digunakan untuk penyamaran identiti;
- bahan kimia/alat yang ada kegunaan sah tetapi tinggi potensi salah guna.
Dalam semua situasi ini, pertikaian liputan biasanya berpusing pada soalan yang sama:
- Adakah kerugian itu benar-benar “kemalangan”?
- Atau ia hasil yang boleh dijangka daripada strategi perniagaan?
AI dalam pengurusan risiko membantu syarikat melihat isu ini lebih awal—sebelum ia menjadi “headline”.
Cara praktikal guna AI untuk kurangkan pertikaian liputan (pelan 90 hari)
Kalau anda di pihak penanggung insurans, broker, atau risk manager korporat, ini langkah yang realistik untuk 90 hari:
Minggu 1–4: Audit bahasa polisi dan data tuntutan
- Kumpul 20–50 polisi liabiliti yang paling aktif.
- Kumpul tuntutan yang ada isu “occurrence/accident”, “intentional act”, atau “expected injury”.
- Gunakan NLP untuk buat kamus terma dan variasi bahasa.
Output yang anda mahu: senarai 10 frasa yang paling kerap jadi punca salah faham.
Minggu 5–8: Model klasifikasi “allegation-to-coverage”
- Latih model untuk mengklasifikasi petikan saman/tuntutan kepada kategori: kemalangan, kecuaian, tindakan sengaja, pelanggaran pematuhan, pemasaran agresif.
- Bina “heatmap” risiko pertikaian.
Output: papan pemuka yang bantu claims/underwriting cepat nampak kes yang berpotensi menjadi pertikaian.
Minggu 9–12: Ubah proses—bukan sekadar teknologi
- Perkenal semakan pra-bind untuk industri berisiko tinggi (produk sensitif, platform digital, marketplace).
- Standardkan soalan underwriting berkaitan conduct risk.
- Kemas kini wording/endorsement untuk jelaskan sempadan “accident” vs “intentional business practices”.
Output: kurang kes “surprise denial”, kurang isu reputasi, dan pengalaman pelanggan yang lebih telus.
Soalan lazim yang patut dijawab oleh pasukan anda
Adakah tuntutan yang dilabel “negligent” automatik dilindungi?
Tidak semestinya. Dalam kes ini, walaupun plaint menyebut “negligently and/or recklessly”, mahkamah melihat fakta teras: tindakan yang didakwa adalah disengajakan dan hasilnya boleh dijangka.
Kenapa “duty to defend” sangat kritikal?
Kerana kos defend boleh mencecah angka besar walaupun kes akhirnya menang. Jika dokumen saman sendiri sudah menunjukkan ia bukan “occurrence”, penanggung insurans boleh menolak defend lebih awal (bergantung undang-undang bidang kuasa).
AI boleh gantikan peguam atau claims adjuster?
Tidak. Nilai AI ialah kelajuan, konsistensi, dan pengesanan pola—supaya manusia fokus pada keputusan yang benar-benar perlukan pertimbangan.
Langkah seterusnya untuk organisasi yang serius tentang AI dalam insurans
Kes “ghost gun” ini menegaskan satu realiti: pertikaian liputan adalah simptom. Puncanya biasanya ketidakselarasan antara risiko sebenar, bahasa polisi, dan jangkaan pelanggan. AI membantu menyelaraskan tiga perkara itu—dengan membaca dokumen pada skala besar, mengesan isyarat risiko lebih awal, dan menyokong keputusan underwriting serta claims.
Jika anda sedang merancang program AI dalam insurans dan pengurusan risiko untuk 2026, saya akan mulakan di sini: pilih satu garis produk liabiliti, satu set tuntutan, dan bina sistem kecil untuk policy wording analytics + allegation triage. Itu lebih berguna daripada membina demo “AI futuristik” yang tak menyentuh masalah sebenar.
Anda rasa organisasi anda lebih berisiko kerana bahasa polisi yang kabur, atau kerana profil risiko pelanggan yang berubah terlalu pantas—dan yang mana satu patut anda baiki dulu?