Kes Arizona dedah risiko diskriminasi dalam pemilihan penyedia. Ketahui bagaimana AI bantu keputusan lebih telus, adil dan mudah diaudit.

AI & Keadilan Penyedia Insurans: Elak Risiko Diskriminasi
Pada 15/12/2025, sebuah kes di Arizona membuat banyak pemain insurans kesihatan mula menelan air liur: penyedia perkhidmatan mendakwa mereka disingkirkan daripada rangkaian secara tidak adil—kononnya atas dasar bangsa/etnik—dan syarikat insurans pula mahu memindahkan pertikaian itu daripada mahkamah kepada timbang tara. Ini bukan sekadar drama undang-undang. Ini isu pengurusan risiko operasi, tadbir urus kontrak, dan ketelusan keputusan.
Bila keputusan “gugur rangkaian”, “beku bayaran”, atau “tamat kontrak” dibuat tanpa dokumentasi kukuh, organisasi bukan saja terdedah kepada kerugian kewangan—ia juga membuka pintu kepada dakwaan diskriminasi. Dan dalam landskap 2025, bila AI semakin digunakan untuk penilaian risiko, pengesanan penipuan, dan automasi keputusan, satu perkara jadi jelas: AI boleh jadi perisai, atau boleh jadi peluru. Bezanya ialah bagaimana ia direka, diaudit, dan ditadbir.
Artikel ini ialah sebahagian daripada siri “AI dalam Insurans dan Pengurusan Risiko”. Saya akan gunakan kes ini sebagai kajian kes praktikal: apa yang gagal dalam proses tradisional, bagaimana AI boleh membantu mengurangkan risiko diskriminasi, dan apa langkah yang patut dibuat oleh pihak insurans, TPA, serta pengurus risiko—sebelum notis guaman sampai.
Apa yang kes Arizona ini beritahu tentang risiko “keputusan rangkaian”
Kes di Arizona berpunca daripada tindakan tegas kerajaan negeri terhadap dakwaan penipuan di kemudahan sober living dan penyedia rawatan kesihatan tingkah laku yang menyasarkan komuniti Native American. Dalam tindak balas itu, beberapa penyedia didakwa digantung, ditamatkan, atau dikecualikan daripada rangkaian oleh pihak berkaitan termasuk entiti insurans terurus. Penyedia pula mendakwa tindakan itu dibuat berdasarkan bangsa/etnik atau kaitan identiti, bukan berdasarkan bukti penipuan yang disahkan.
Jawapan paling jelas untuk pengurus risiko: keputusan rangkaian adalah keputusan berimpak tinggi. Ia menjejaskan:
- aliran pendapatan penyedia,
- akses rawatan ahli/peserta,
- kos tuntutan (claim cost),
- reputasi syarikat,
- dan pendedahan litigasi.
Bila pertikaian cuba dialihkan ke timbang tara melalui klausa kontrak, ia menambah satu lapisan lagi: tadbir urus kontrak dan “forum risk”. Organisasi yang menang dalam prosedur pun masih boleh kalah dari segi kepercayaan pasaran jika naratif awamnya ialah “keputusan dibuat secara tertutup dan berat sebelah”.
Masalah sebenar bukan sekadar “fraud vs bukan fraud”
Banyak organisasi silap fokus. Mereka fikir isu utamanya ialah sama ada penipuan berlaku. Hakikatnya, isu lebih besar ialah bagaimana keputusan dibuat:
- Apa data yang digunakan?
- Apa kriteria “red flag”?
- Siapa yang meluluskan keputusan akhir?
- Adakah ada semakan bias (bias review) sebelum tindakan diambil?
- Bolehkah keputusan diterangkan (explainable) dan diaudit?
Kalau jawapannya kabur, risiko diskriminasi (sebenar atau persepsi) akan meningkat.
Di mana proses tradisional sering gagal (dan kenapa ia jadi risiko undang-undang)
Proses tradisional pengurusan rangkaian penyedia biasanya bergantung pada gabungan laporan siasatan, aduan, audit manual, dan keputusan jawatankuasa. Masalahnya, bila tekanan meningkat—contohnya semasa “crackdown” penipuan—organisasi cenderung membuat keputusan pantas dengan heuristik: “banyak kes berlaku dalam kategori ini, jadi semua dalam kategori ini berisiko.”
Itu punca risiko diskriminasi yang klasik: overgeneralization.
Tiga titik lemah yang kerap saya nampak
-
Kriteria yang tidak distandardkan Dua penyedia dengan profil risiko hampir sama boleh dilayan berbeza kerana “si A lebih bising”, atau “si B ada kaitan dengan pihak tertentu”. Ini bukan saja tak adil, ia sukar dipertahankan di meja guaman.
-
Jejak audit (audit trail) yang tidak lengkap Bila tindakan dibuat, organisasi gagal menyimpan bukti proses: versi data, alasan penilaian, minit mesyuarat, dan alternatif yang dipertimbangkan. Bila dokumen tak cukup, pihak lawan akan mengisi ruang kosong dengan naratif mereka.
-
Tiada pengukuran kesan (impact measurement) Organisasi jarang mengira sama ada tindakan “gugur rangkaian” memberi kesan tidak seimbang kepada kumpulan tertentu. Tanpa metrik, bias boleh berlaku tanpa disedari.
“Keputusan yang tak boleh diterangkan akan dianggap keputusan yang tak boleh dipercayai.”
Bagaimana AI boleh bantu: lebih telus, lebih konsisten, lebih selamat
AI yang ditadbir dengan betul menjadikan proses pemilihan/penamatan penyedia lebih konsisten, lebih cepat, dan yang paling penting—lebih boleh diaudit. Bukan sebab AI “lebih bijak” semata-mata, tetapi sebab AI memaksa organisasi menyusun logik keputusan dalam bentuk yang boleh diuji.
1) Pengesanan penipuan tanpa “sapu bersih” (targeted, bukan blanket)
AI boleh menilai risiko penipuan berdasarkan corak tuntutan (claims patterns) dan tingkah laku operasi, contohnya:
- anomali kadar kekerapan tuntutan,
- lonjakan kos per episod rawatan,
- corak rujukan yang mencurigakan,
- penggunaan kod prosedur yang tidak sejajar dengan profil pesakit.
Kelebihannya: tindakan boleh disasarkan pada entiti yang benar-benar menunjukkan corak berisiko, bukan pada keseluruhan kumpulan penyedia yang kebetulan berada dalam segmen tertentu.
2) Model “Explainable AI” untuk pertahanan undang-undang dan tadbir urus
Jika organisasi guna model yang boleh diterangkan (contohnya melalui feature importance atau ringkasan sebab keputusan), pasukan undang-undang dan pematuhan boleh menjawab soalan kritikal:
- “Kenapa penyedia ini ditandakan?”
- “Apakah faktor utama?”
- “Adakah faktor sensitif (race/ethnicity) digunakan secara langsung atau tidak langsung?”
Penekanan di sini bukan kosmetik. Kebolehan menerangkan ialah aset apabila organisasi perlu menunjukkan keputusan dibuat berdasarkan indikator risiko yang relevan, bukan identiti.
3) Pengesanan bias dan “disparate impact” sebelum keputusan keluar
AI juga boleh digunakan untuk governance analytics—bukan sekadar keputusan, tetapi pemantauan fairness:
- Bandingkan kadar tindakan (suspension/termination) antara kumpulan penyedia mengikut lokasi, jenis perkhidmatan, saiz, atau demografi komuniti yang mereka layani.
- Kenal pasti jika sesuatu polisi menyebabkan kesan tidak seimbang.
Jika metrik menunjukkan ketidakseimbangan, organisasi boleh:
- semak semula ambang (threshold),
- tambah lapisan semakan manusia,
- atau ubah proses bukti sebelum tindakan.
4) “Decision logging” automatik: bukti yang kemas dan cepat dicari
Salah satu kemenangan mudah ialah membina sistem yang merekod:
- input data dan tarikhnya,
- versi model/aturan,
- siapa meluluskan,
- apa cadangan alternatif,
- justifikasi akhir.
Bila ada pertikaian, organisasi tak panik mencari e-mel lama. Semuanya tersusun.
Rangka kerja praktikal: 7 langkah kurangkan risiko diskriminasi penyedia
Jika anda mengurus operasi insurans, rangkaian penyedia, audit, SIU (special investigation unit), atau risiko korporat, inilah langkah yang saya cadangkan—realistik untuk dilaksanakan dalam 90–180 hari.
-
Tetapkan “kriteria tindakan” bertulis untuk setiap tahap Contoh tahap: pemantauan → audit → pembekuan bayaran → penggantungan → penamatan.
-
Pisahkan fungsi “pengesanan” dan “keputusan” Model/analitik memberi skor risiko. Keputusan akhir dibuat melalui panel yang ada semakan pematuhan.
-
Wujudkan semakan fairness sebelum tindakan Satu checklist ringkas: adakah tindakan ini mencetuskan kesan tidak seimbang? Adakah faktor proksi (contoh: zip code yang sangat berkait dengan etnik) mempengaruhi?
-
Gunakan model yang boleh diterangkan untuk keputusan berimpak tinggi Untuk tindakan besar seperti penamatan, elakkan “black box” yang sukar dihuraikan.
-
Bangunkan “counterfactual review” Uji: jika lokasi/segmen berubah tetapi corak tuntutan sama, adakah keputusan berubah? Kalau ya, itu petanda bias.
-
Standardkan komunikasi kepada penyedia Beri alasan yang jelas, bukti yang relevan, dan laluan rayuan. Ini mengurangkan eskalasi.
-
Audit dalaman berkala & latihan Audit proses keputusan setiap suku tahun. Latih pasukan tentang bias data dan diskriminasi tidak langsung.
Soalan lazim (yang biasanya ditanya oleh pengurus dan penasihat undang-undang)
“Kalau AI digunakan, bukankah risiko diskriminasi bertambah?”
Ya—kalau AI dibiarkan tanpa tadbir urus. Model boleh mempelajari bias sejarah (contoh: corak audit lama yang berat sebelah). Sebab itu AI mesti ada:
- data governance,
- ujian fairness,
- dokumentasi keputusan,
- dan semakan manusia.
“Adakah timbang tara menyelesaikan isu reputasi?”
Timbang tara mungkin mengehadkan pendedahan awam, tapi ia tak memadam persepsi. Dalam era media sosial dan pekerja yang mudah membocorkan maklumat, naratif “tak telus” cepat merebak. Ketelusan proses ialah pelindung reputasi yang lebih kuat.
“Apa indikator paling cepat untuk lihat risiko diskriminasi dalam rangkaian?”
Cari ketidakseimbangan kadar tindakan mengikut segmen (lokasi, jenis penyedia, saiz, populasi yang dilayani). Jika satu segmen menyumbang 15% rangkaian tetapi menerima 45% tindakan, itu perlukan siasatan proses.
Apa maksud semua ini untuk organisasi di Malaysia dan rantau serantau
Walaupun kes ini berlaku di AS, coraknya sangat dekat dengan realiti serantau: pengurusan panel klinik/hospital, audit tuntutan, isu penipuan, dan tekanan kos perubatan yang meningkat. Bila ekonomi ketat (hujung tahun 2025 pun ramai organisasi mengetatkan bajet), keputusan untuk “ketatkan rangkaian” akan jadi lebih kerap—dan risiko pertikaian pun meningkat.
AI dalam insurans dan pengurusan risiko bukan sekadar automasi tuntutan. Ia ialah cara untuk membina proses yang boleh dipertahankan: adil, konsisten, dan siap dengan bukti.
Langkah seterusnya yang paling bernilai: lakukan semakan pantas ke atas proses rangkaian anda.
- Adakah keputusan berimpak tinggi anda boleh diterangkan dalam 60 saat kepada pihak ketiga?
- Adakah anda boleh tunjuk jejak audit lengkap tanpa cari e-mel berhari-hari?
- Adakah anda mengukur kesan keputusan terhadap kumpulan yang berbeza?
Kalau jawapannya “belum”, itu ruang paling cepat untuk membina kelebihan—dan mengurangkan risiko litigasi.
Akhirnya, soalan yang patut kita pegang untuk 2026: bila AI makin meluas dalam keputusan insurans, adakah organisasi anda membina sistem yang lebih adil—atau sekadar lebih laju membuat keputusan lama?