Risiko Liabiliti Lembaga Bila ā€˜Gelembung’ AI Pecah

AI dalam Insurans dan Pengurusan Risiko••By 3L3C

Risiko D&O meningkat bila janji AI tak seiring prestasi. Fahami pendedahan, pembiayaan pusat data, dan checklist tadbir urus AI untuk kurangkan liabiliti.

D&OTadbir Urus AILitigasi SekuritiUnderwritingPengurusan RisikoAnalitik Ramalan
Share:

Featured image for Risiko Liabiliti Lembaga Bila ā€˜Gelembung’ AI Pecah

Risiko Liabiliti Lembaga Bila ā€˜Gelembung’ AI Pecah

Pelaburan AI sedang bergerak pada kelajuan yang buat ramai CFO tak sempat tarik nafas. Laporan UNCTAD (04/2025) mengunjurkan pasaran AI global boleh mencecah US$4.8 trilion menjelang 2033—kenaikan 25 kali ganda dalam sedekad. Angka macam ini biasanya ada dua kesan serentak: ia menarik modal besar-besaran… dan ia menaikkan suhu risiko korporat.

Bagi industri insurans—khususnya D&O (Directors & Officers)—isu utamanya bukan ā€œAI akan jadi besar atau tidakā€. Isunya lebih tajam: bila syarikat berjanji besar tentang AI, membina pusat data, mengambil bakat mahal, kemudian pulangan tak seperti diiklankan—siapa yang akan dipersalahkan? Dalam banyak kes, sasaran pertama ialah lembaga pengarah dan pegawai kanan.

Dalam siri AI dalam Insurans dan Pengurusan Risiko, saya anggap ini sebagai ā€œujian stresā€ sebenar: bagaimana kita menilai, mendokumen, dan mengunderwrite risiko AI ketika semua orang berlumba-lumba. Kalau gelembung AI mengempis, litigasi D&O berasaskan AI berpotensi menjadi gelombang seterusnya—dan pengunderaitan insurans yang lemah akan dibayar mahal.

Kenapa D&O memberi perhatian serius pada risiko ā€œAI bubbleā€

Jawapan ringkas: duit yang terlibat terlalu besar, jangkaan terlalu tinggi, dan bukti pulangan kadang-kadang belum matang.

Dalam pengalaman saya melihat trend risiko teknologi, bila perbelanjaan modal (capex) naik mendadak—terutama untuk infrastruktur jangka panjang seperti pusat data—risiko tuduhan ā€œsalah urusā€ dan ā€œpendedahan mengelirukanā€ turut naik. Pemegang saham tak semestinya marah kerana syarikat melabur; mereka marah bila syarikat:

  • Menyampaikan naratif pertumbuhan AI yang terlalu optimistik
  • Gagal menjelaskan risiko kos, margin, dan garis masa realistik
  • Menggunakan istilah AI sebagai ā€œcat pemasaranā€ (AI-washing)
  • Tak boleh tunjuk proses tadbir urus yang disiplin

Dalam konteks litigasi sekuriti, punca paling lazim ialah terlepas panduan pendapatan dan kenyataan yang didakwa mengelirukan tentang masa depan. Bila AI dijadikan asas panduan dan proyeksi, kesannya mudah jadi ā€œbahan buktiā€ di mahkamah.

ā€œAI bukan risiko yang berdiri sendiri—AI ialah cara baharu untuk mencipta janji, kos, dan pendedahan. Bila janji itu tak menjadi, D&O jadi sasaran.ā€

Bagaimana AI boleh mencetus gelombang litigasi D&O

Jawapan terus: melalui jurang antara janji dan prestasi.

Di AS, terdapat petunjuk awal bahawa kes berkaitan AI semakin kerap. Data yang dikongsi dalam laporan pasaran (berdasarkan NERA) menyatakan 13 saman sekuriti berkaitan AI difailkan dalam 6 bulan pertama 2025, berbanding 16 sepanjang 2024. Itu isyarat jelas: isu AI sudah mula ā€œmasuk bilik mahkamahā€, bukan sekadar masuk bilik mesyuarat.

1) Pendedahan (disclosure) yang ā€œterlebih jualā€

Lembaga biasanya meluluskan strategi, bajet, dan naratif pasaran. Bila syarikat menyatakan AI akan:

  • menaikkan hasil dalam tempoh tertentu,
  • menjimatkan kos operasi dengan kadar tertentu,
  • menambah kecekapan tuntutan/underwriting,

…tetapi realitinya lebih perlahan, pemegang saham akan bertanya: adakah lembaga sudah menjalankan semakan munasabah?

Dalam insurans, contoh mudah:

  • Syarikat mengumumkan automasi tuntutan dengan AI akan memendekkan masa penyelesaian 40% dalam 12 bulan.
  • Selepas pelaksanaan, tuntutan menjadi lambat kerana isu integrasi sistem legasi dan semakan manual bertambah (akibat ralat model).
  • Margin turun, aduan pelanggan naik.

Naratif ā€œAI akan memudahkanā€ boleh bertukar jadi tuduhan ā€œAI telah disalahurus dan risiko disorokā€.

2) Overinvest dalam pusat data dan infrastruktur

Perbelanjaan untuk pusat data, GPU, dan perisian enterprise bukan kecil. Bila ia dibiayai dengan struktur kompleks (contoh SPV atau pembiayaan luar kunci kira-kira), risiko menjadi dua lapis:

  1. Risiko kewangan: kecairan, nisbah hutang, keupayaan servis hutang
  2. Risiko tadbir urus: kenapa struktur itu dipilih, siapa meluluskan, apa kawalan

Penaja jamin D&O akan bertanya soalan yang semakin ā€œtajamā€: apa rawatan perakaunan, impak kunci kira-kira, dan rancangan jika unjuran pulangan tersasar?

3) ā€œDamned if you do, damned if you don’tā€: terlalu cepat vs terlalu lambat

Realitinya, lembaga terperangkap antara dua risiko:

  • Terlalu cepat: AI masuk produksi tanpa ujian bias, isu harta intelek (IP), dan ā€œhalusinasiā€ output → salah keputusan, salah komunikasi kepada pelanggan/pasaran.
  • Terlalu lambat: pesaing lebih pantas → lembaga dituduh gagal merebut peluang strategik.

Dalam pengurusan risiko, ini dipanggil masalah timing risk: bukan sekadar ā€œbuat atau tak buatā€, tetapi ā€œbila, sejauh mana, dan dengan kawalan apaā€.

Risiko tadbir urus AI yang paling relevan untuk insurans

Jawapan ringkas: model risk + data risk + disclosure risk + financing risk.

Bila kita cakap AI dalam insurans, ramai fokus pada produktiviti. Tetapi D&O dan pengawal selia fokus pada ā€œbukti kawalanā€. Ini empat kluster risiko yang saya lihat paling kerap muncul dalam penilaian:

1) Model risk (halusinasi, drift, keputusan tak stabil)

AI yang bagus di persekitaran ujian boleh jadi ā€œliarā€ bila berdepan data sebenar. Dalam insurans:

  • Model penipuan (fraud) menghasilkan terlalu banyak false positives → pelanggan baik disekat, reputasi rosak.
  • Model underwriting bias pada segmen tertentu → pendedahan diskriminasi.
  • Model ramalan tuntutan (claim severity) ā€œdriftā€ selepas perubahan ekonomi → reserving lari.

Kawalan yang dicari: proses validasi berkala, pemantauan drift, human-in-the-loop untuk keputusan kritikal.

2) Data risk (bias, kualiti, dan hak penggunaan)

AI bukan sihir; ia makan data. Kalau data:

  • berat sebelah,
  • tidak lengkap,
  • melanggar hak cipta/lesen,

…maka risiko liabiliti naik. Untuk lembaga, isu ini akan kembali kepada soalan mudah: siapa pemilik risiko data dan bagaimana ia dilapor?

3) Disclosure risk (AI-washing dan janji proyeksi)

Paling mudah membawa saman ialah kenyataan awam yang kemudian kelihatan tak selari dengan prestasi. Bahasa pemasaran boleh jadi bukti litigasi.

Amalan praktikal: selaraskan ā€œbahasa pasaranā€ dengan metrik operasi sebenar. Kalau AI masih peringkat rintis, katakan rintis—jangan jadikan ia seolah-olah sudah skala penuh.

4) Financing & liquidity risk (projek panjang, pulangan lambat)

Projek AI dan pusat data biasanya berbilang tahun. Andaian boleh berubah: kos elektrik, harga GPU, kadar faedah, permintaan pelanggan, dan polisi regulatori.

Soalan yang perlu dijawab di peringkat lembaga:

  • Apakah titik hentian (stop-loss) projek jika KPI tak tercapai?
  • Berapa bulan runway kecairan jika pulangan tertunda?
  • Apa pelan B jika vendor gagal, atau model tak lulus audit?

3 cara penanggung insurans bersedia untuk ā€œgelombang liabiliti AIā€

Jawapan terus: lebih banyak soalan, lebih banyak bukti, dan lebih banyak pemodelan risiko.

Bagi penyedia insurans dan broker, ini bukan masa untuk bergantung pada borang cadangan yang generik. Pengunderaitan D&O untuk syarikat yang agresif dalam AI akan semakin menyerupai penilaian risiko teknologi.

1) Underwriting berasaskan bukti tadbir urus

Penaja jamin akan mahu melihat:

  • rangka kerja tadbir urus AI (pemilik risiko, polisi, had penggunaan),
  • struktur jawatankuasa risiko/teknologi di peringkat lembaga,
  • latihan berkala untuk pengarah tentang risiko AI,
  • proses semakan vendor dan pengurusan pihak ketiga.

Ini selari dengan tema siri kita: AI menambah kecekapan, tapi ia juga menambah permintaan terhadap kawalan.

2) Analitik ramalan untuk isyarat awal litigasi

Di sinilah AI membantu insurans secara langsung. Pembawa insurans dan MGA yang matang sedang menggunakan analitik ramalan untuk mengenal pasti ā€œsyarikat berisiko tinggiā€ melalui gabungan:

  • corak pendedahan pasaran (kenyataan proyeksi vs prestasi suku tahunan),
  • intensiti capex AI berbanding hasil,
  • perubahan mendadak dalam margin,
  • pertumbuhan aduan pelanggan atau isu operasi.

Matlamatnya bukan untuk menolak semua risiko—matlamatnya harga yang tepat, syarat yang tepat, dan kawalan yang tepat.

3) Penilaian kawalan operasi AI (bukan sekadar kewangan)

D&O bukan hanya tentang angka. Dalam insurans, penggunaan AI dalam:

  • underwriting,
  • tuntutan,
  • khidmat pelanggan,
  • pengambilan pekerja,

…membawa risiko liabiliti baru seperti bias, salah keputusan automatik, dan kesilapan komunikasi. Penanggung insurans akan mula meminta bukti:

  • audit bias,
  • log keputusan,
  • proses eskalasi,
  • ujian sebelum produksi,
  • pelan respons insiden.

Apa yang patut dibuat oleh lembaga & pengurusan (checklist 90 hari)

Jawapan ringkas: kemaskan dokumentasi, kuatkan kawalan, dan rapatkan jurang antara strategi dan pendedahan.

Jika anda berada dalam syarikat yang sedang menolak agenda AI dengan agresif, 90 hari akan datang patut fokus pada tiga perkara ini.

1) Dokumentasikan ā€œkenapaā€ sebelum anda dokumentasikan ā€œapaā€

Bila prestasi tak capai sasaran, dokumen yang kuat bukan sekadar menunjukkan keputusan dibuat—ia menunjukkan keputusan dibuat dengan pertimbangan munasabah.

  • Nyatakan rasional pelaburan (bukan slogan).
  • Letak KPI yang realistik dan boleh diaudit.
  • Rekod input pakar kewangan, teknikal, dan undang-undang dalam minit mesyuarat.

2) Jadikan AI satu program risiko rasmi, bukan projek IT

AI yang diletakkan di bawah IT sahaja biasanya gagal dari sudut tadbir urus.

  • Tetapkan pemilik risiko (contoh CRO atau jawatankuasa risiko).
  • Tentukan had penggunaan AI untuk keputusan kritikal.
  • Wujudkan proses semakan berkala untuk business case.

3) Buat ā€œpressure testā€ kewangan dan reputasi

Sediakan senario negatif yang spesifik:

  1. Model gagal capai prestasi dan perlu dirombak (kos + 30%).
  2. Perubahan regulatori memerlukan pendedahan tambahan.
  3. Isu bias menyebabkan aduan pelanggan dan siasatan.

Jika organisasi boleh menjawab ā€œapa tindakan dalam 72 jam pertamaā€, lembaga berada pada kedudukan lebih selamat.

Soalan lazim yang ditanya oleh broker dan penaja jamin D&O

Jawapan ringkas: mereka mahu melihat disiplin, bukan hype.

Berikut soalan yang saya jangka akan semakin biasa pada 2026 (dan wajar anda sediakan jawapan):

  • Adakah syarikat mempunyai polisi pendedahan berkaitan AI untuk komunikasi pelabur?
  • Siapa yang meluluskan KPI AI, dan bagaimana ia diaudit?
  • Apakah proses validasi model dan pengurusan drift?
  • Apakah struktur pembiayaan projek AI/pusat data, dan impak kecairan?
  • Bagaimana syarikat mengurus risiko vendor (lesen data, IP, SLA, audit)?

Jika jawapan anda kabur, premium cenderung naik—atau syarat perlindungan jadi ketat.

Penutup: AI perlukan tadbir urus yang setara dengan janji

Risiko sebenar bukan ā€œAI akan gagalā€. Risiko sebenar ialah cara syarikat bercakap tentang AI, cara ia dibina, dan cara ia dibiayai—kemudian semuanya direkod dan dihakimi semula apabila prestasi tak menepati jangkaan.

Bagi industri insurans, ini peluang besar untuk mematangkan amalan: pengunderaitan lebih pintar, pemodelan risiko lebih tepat, dan rangka kerja tadbir urus yang boleh diuji. Dalam siri AI dalam Insurans dan Pengurusan Risiko, saya lebih percaya pada syarikat yang bergerak laju dengan brek yang berfungsi berbanding syarikat yang bergerak laju dengan mata tertutup.

Jika anda sedang merancang atau sudah melaksanakan AI dalam underwriting, tuntutan, atau automasi operasi, satu soalan patut duduk di meja lembaga pada suku pertama 2026: adakah kita boleh pertahankan setiap keputusan AI ini—secara kewangan, undang-undang, dan reputasi—jika pasaran tiba-tiba berubah?