Bias Algoritma: Amaran Serius Untuk AI Kewangan

AI dalam Pembuatan (Elektronik, Automotif, Semikonduktor)••By 3L3C

Kontroversi algoritma LinkedIn ialah amaran awal untuk bank, insurans, fintech dan pengilang: jika AI tak diaudit bias dan fairness, kepercayaan pelanggan akan runtuh.

AI kewanganbias algoritmaskor kredit AIAI dalam pembuatanDEI dan AIrisk managementkilang pintar
Share:

Bias Algoritma: Amaran Serius Untuk AI Kewangan

Pada 2024, sekumpulan wanita profesional buat eksperimen kecil di LinkedIn. Mereka tukar-tukar setting profil, jenis kandungan, malah gaya penulisan – semata-mata untuk uji sama ada algoritma LinkedIn yang “baru” sebenarnya seksis. Data awal mereka seolah-olah tunjuk: akaun wanita kurang paparan dan engagement berbanding lelaki dengan profil hampir sama.

Ramai terus simpulkan, “Algoritma ni bias terhadap wanita.” Cerita itu jadi viral, dan pakar data mula masuk campur. Rupa-rupanya, isu ini jauh lebih kompleks daripada “algoritma ni jahat” atau “algoritma ni neutral”. Ada faktor konteks, data sejarah, tingkah laku pengguna, dan cara model AI dilatih.

Kenapa kisah LinkedIn ni patut buat bank, syarikat insurans, fintech, malah pengeluar elektronik & automotif di Malaysia risau? Sebab apa yang berlaku pada algoritma media sosial hari ini, sangat serupa dengan apa yang boleh berlaku pada sistem skor kredit, model pengesanan penipuan, model risiko insurans, atau sistem kualiti dalam kilang pintar esok pagi.

Dalam siri AI dalam Pembuatan (Elektronik, Automotif, Semikonduktor), topik ini memang nampak macam “di luar kilang”. Tapi sebenarnya, trust terhadap AI di media sosial membentuk cara pelanggan menilai AI di bank, insurans dan juga kilang pintar yang mengendalikan data mereka. Kalau algoritma LinkedIn boleh kelihatan bias terhadap wanita, apa jaminan model AI anda yang meluluskan pinjaman SME, menentukan premium insurans, atau memutuskan bekalan kepada vendor, tak ulang kesilapan yang sama?

Artikel ini kupas:

  • Apa yang sebenarnya berlaku dalam debat algoritma LinkedIn
  • Bagaimana bias algoritma terjadi – bukan saja di media sosial, tapi dalam kewangan dan pembuatan
  • Risiko khusus untuk bank, insurans, fintech dan pengeluar elektronik/automotif
  • Langkah praktikal untuk audit bias AI anda sebelum pelanggan hilang kepercayaan

1. Apa yang Kita Boleh Belajar Dari Kontroversi Algoritma LinkedIn

Isu LinkedIn tunjuk satu perkara jelas: bila orang rasa algoritma tak adil, kepercayaan runtuh dulu sebelum fakta teknikal sempat dibentang.

Dalam eksperimen tidak formal yang dibuat beberapa wanita profesional:

  • Mereka bandingkan reach, like dan komen antara akaun wanita dan lelaki
  • Profil hampir sama dari segi jawatan, industri, tahap senioriti
  • Post dengan tema dan kekerapan yang lebih kurang sama
  • Hasil awal menunjukkan kandungan lelaki lebih banyak dipaparkan dan menerima engagement

Pakar data yang ditanya media menegaskan: untuk buktikan “seksisme” algoritma, perlu kajian jauh lebih rapi – sampel besar, kawal pembolehubah, dan akses ke data dalaman. Tapi dari sudut persepsi pengguna, naratifnya sudah jelas: “algoritma ini tidak adil”.

Dalam AI, kadang-kadang persepsi ketidakadilan lebih pantas membunuh reputasi berbanding bias sebenar yang wujud dalam model.

Dari media sosial ke kewangan dan kilang

Kenapa hal ini kritikal untuk sektor kewangan dan pembuatan?

  • Bank & fintech: Kalau pelanggan mula rasa model skor kredit berat sebelah terhadap wanita, Bumiputera, atau golongan tertentu, krisis reputasi boleh tercetus walaupun bank yakin model itu “statistiknya betul”.
  • Insurans: Kalau pelanggan percaya premium lebih mahal hanya kerana poskod atau jantina, bukan risiko sebenar, mereka akan label sistem sebagai diskriminasi.
  • Pembuatan (elektronik, automotif, semikonduktor): Kalau vendor kecil rasa sistem penilaian pembekal yang digerakkan AI hanya menguntungkan MNC besar, trust dalam ekosistem supply chain Malaysia akan merosot.

Kisah LinkedIn menunjukkan satu hakikat: AI yang “tepat” dari sudut matematik belum tentu dianggap “adil” oleh manusia.


2. Bagaimana Bias Algoritma Tercipta Dalam Sistem AI

Bias algoritma jarang datang daripada niat jahat; ia biasanya lahir daripada data tak seimbang, andaian lama, dan proses pembangunan yang tertutup.

Dalam hampir semua industri – kewangan, insurans, malah kilang pintar – puncanya berulang:

2.1 Data sejarah yang sudah bias

Model AI belajar daripada data lama.

  • Dalam bank, data pinjaman 10–20 tahun lalu mungkin tercemar oleh polisi yang dahulu lebih ketat terhadap segmen tertentu.
  • Dalam insurans, data tuntutan mungkin tak mewakili kumpulan yang kurang membeli insurans.
  • Dalam pembuatan, data prestasi vendor mungkin berat sebelah kepada pembekal besar yang sudah lama “dalam sistem”.

Bila data sejarah itu dijadikan ground truth, model akan mengulang bias lama dengan jenama baru: “AI-driven decision”.

2.2 Ciri (features) yang kelihatan neutral, tapi membawa kesan diskriminasi

Dalam model skor kredit atau risiko, jarang ada pembolehubah “jantina” atau “bangsa” secara terang-terangan. Tapi:

  • Poskod boleh jadi proksi kepada komposisi etnik atau tahap pendapatan
  • Jenis pekerjaan boleh meminggirkan sektor tertentu (contoh: pekerja kontrak, gig, usahawan mikro)
  • Saiz pinjaman atau saiz syarikat boleh menguntungkan klien korporat berbanding SME

Di kilang elektronik atau automotif, ciri seperti “negara asal pembekal” atau “saiz syarikat” boleh hasilkan keputusan yang nampak objektif, tapi sebenarnya mengunci peluang vendor kecil tempatan.

2.3 Objektif model yang salah fokus

Kalau objektif model hanya maksimumkan keuntungan jangka pendek atau minimakan risiko kerugian, ia akan cenderung “play safe” kepada segmen yang sudah dominan dan stabil.

Dalam AI kewangan:

  • Model skor kredit akan lebih suka profil pelanggan yang sudah “seperti biasa diterima bank”
  • Model penipuan kad kredit mungkin terlalu sensitif terhadap transaksi dari kawasan atau corak tertentu yang dikaitkan dengan kumpulan demografi tertentu

Dalam AI pembuatan:

  • Model perancangan supply chain mungkin sentiasa memberi ranking tertinggi kepada pembekal multinasional, walaupun vendor tempatan mampu menepati standard selepas sedikit sokongan.

Ringkasnya: kalau fairness bukan sebahagian objektif model, jangan terkejut kalau hasilnya tak adil.


3. Risiko Nyata Untuk Bank, Insurans, Fintech dan Pengilang

Untuk sektor kewangan dan pembuatan, bias algoritma bukan sekadar isu reputasi – ia juga risiko undang-undang, perniagaan dan operasi.

3.1 Bank & fintech: skor kredit dan kelulusan pinjaman

Bayangkan senario di Malaysia:

  • Wanita pemilik syarikat elektronik kecil di Penang kerap ditolak pinjaman modal kerja.
  • Lelaki dengan profil syarikat hampir sama, dalam industri sama, kerap lulus.

Kalau corak ini berulang dan “kebetulan” banyak melibatkan jantina, negeri atau kumpulan tertentu, pelanggan akan menyalahkan AI skor kredit bank – sama macam pengguna menyalahkan algoritma LinkedIn.

Risikonya:

  • Aduan kepada regulator
  • Semakan dasar dan penalti
  • Hilang kepercayaan komuniti bisnes kecil (terutamanya dalam E&E dan automotif SME)

3.2 Insurans: harga premium dan tuntutan

Dalam insurans kenderaan dan kesihatan:

  • Model harga premium mungkin secara tak sengaja menetapkan harga lebih tinggi untuk kawasan majoriti B40
  • Model pengesanan tuntutan palsu (fraud) terlalu agresif terhadap jenis tuntutan tertentu

Dalam industri automotif Malaysia, kalau pemilik kereta elektrik atau kenderaan fleet industri rasa diperlakukan tak adil oleh model risiko, reputasi syarikat insurans akan jatuh – terutama bila media mula kaitkan dengan “bias AI”.

3.3 Pembuatan: pemilihan vendor, kualiti dan operasi kilang pintar

Dalam kilang elektronik, semikonduktor atau automotif yang menggunakan AI untuk:

  • menilai vendor,
  • meramal kegagalan mesin,
  • mengoptimumkan jadual produksi,

…bias algoritma boleh memberi kesan seperti:

  • Vendor tempatan tak pernah naik ranking, walaupun kualiti meningkat
  • Kilang kecil sukar menembusi rantaian bekalan MNC kerana sistem e-procurement “lebih suka” vendor besar
  • Pekerja barisan hadapan rasa sistem AI keselamatan atau produktiviti “target” mereka, bukan rakan lain

Dan kerana banyak pemain pembuatan besar juga mempunyai lengan kewangan (contoh: pembiayaan vendor, skema kredit dalaman), isu bias AI mereka overlap terus dengan isu sektor kewangan.


4. Cara Praktikal Audit Bias AI Anda (Tanpa Perlu PhD)

Audit bias AI tak perlu tunggu projek mega. Ada beberapa langkah praktikal yang pasukan risiko, data dan bisnes boleh mula minggu ini.

4.1 Pisahkan prestasi model mengikut segmen

Jangan hanya tengok AUC, accuracy atau Gini untuk keseluruhan model.

Ukur juga:

  • Kadar lulus pinjaman mengikut jantina, umur, negeri, saiz syarikat
  • Kadar “false positive” dan “false negative” mengikut segmen
  • Kadar vendor dipilih mengikut kategori (tempatan vs MNC, SME vs besar)

Kalau model skor kredit tunjuk:

  • Lelaki: 65% permohonan SME lulus
  • Wanita: 38% permohonan SME lulus

…itu red flag untuk siasatan lanjut, walaupun bank ada alasan “profil risiko berbeza”. Data perlu dijelaskan, bukan disapu bawah karpet.

4.2 Uji senario “kembar digital” (counterfactual)

Konsepnya mudah:

  • Ambil profil pelanggan atau vendor sebenar
  • Tukar satu ciri sensitif (contoh: jantina, poskod, saiz syarikat) kepada nilai lain yang realistik
  • Kekalkan semua faktor lain
  • Tengok adakah keputusan model berubah secara melampau

Kalau hanya tukar poskod dari kawasan bandar ke luar bandar mengubah keputusan dari “Lulus” ke “Tolak” secara konsisten, patut disemak: adakah poskod sudah jadi proksi bias?

4.3 Libatkan pasukan DEI dan compliance dalam cycle pembangunan model

Dalam banyak organisasi, data scientist dan engineer bekerja dalam silo, jauh dari pasukan DEI, HR, syariah, risiko atau compliance.

Untuk model yang akan menyentuh pelanggan, pekerja atau vendor:

  • Bentuk AI Ethics Committee kecil (boleh mula dengan 4–6 orang sahaja)
  • Pastikan sebarang model risiko, skor kredit, harga atau pemilihan vendor disemak dari sudut fairness, bukan hanya ROI
  • Dokumentasikan keputusan: kenapa ciri X digunakan, kenapa ciri Y dibuang

DEI bukan sekadar program latihan dalaman – ia patut hidup dalam kod dan model anda.

4.4 Jelaskan model (explainability) dalam bahasa manusia

Pelanggan dan vendor tak peduli XGBoost atau transformer. Mereka nak tahu:

  • "Kenapa saya ditolak pinjaman?"
  • "Kenapa premium saya lebih tinggi?"
  • "Kenapa syarikat saya tak lepas penilaian vendor?"

Organisasi perlu sediakan:

  • Ringkasan sebab utama (3–5 faktor) yang mempengaruhi keputusan model
  • Cadangan tindakan (contoh: “tingkatkan rekod pembayaran 6 bulan”, “kurangkan nisbah hutang”)

Transparensi yang jelas boleh mematahkan naratif “algoritma ini pilih kasih” walaupun keputusan tidak memihak kepada pelanggan.


5. Menghubungkan AI Kewangan, Kilang Pintar dan Kepercayaan Pelanggan

Satu perkara yang banyak syarikat silap: mereka treat AI di bank, di insurans, dan di kilang sebagai tiga dunia berbeza. Dari sudut pelanggan, semuanya satu ekosistem kepercayaan.

Bayangkan seorang usahawan wanita di Johor:

  • Dia guna LinkedIn untuk bina rangkaian dengan pembeli komponen automotif global.
  • Dia mohon pembiayaan dari bank tempatan untuk naik taraf mesin di kilang kecilnya.
  • Dia beli insurans untuk melindungi aset mesin dan pekerja.

Kalau dia rasa:

  • Algoritma LinkedIn “angkat” profil lelaki lebih daripada dia;
  • Sistem skor kredit bank sukar luluskan kredit untuk kilang kecil dipimpin wanita;
  • Model risiko insurans beri premium lebih tinggi untuk lokasi kilangnya;

…dia tak akan membezakan – bagi dia, “AI ni memang berat sebelah terhadap saya”.

Untuk pemain besar dalam pembuatan elektronik, automotif, semikonduktor yang juga bergantung pada bank dan insurans:

  • Vendor mereka, pekerja mereka, dan komuniti sekitar kilang berkongsi persepsi yang sama.
  • Sekali kepercayaan hilang, sukar untuk yakinkan orang bahawa “AI kilang kami adil, hanya AI bank yang bermasalah” – semuanya nampak sebakul.

Ini sebabnya saya yakin:

Sesiapa yang serius membina kilang pintar berasaskan AI di Malaysia, mesti sama serius membina sistem kewangan dan insurans yang adil berasaskan AI. Kalau satu rosak, reputasi keseluruhan ekosistem akan terpalit.


6. Langkah Seterusnya Untuk Organisasi di Malaysia

Ada cara lebih matang untuk guna AI dalam kewangan dan pembuatan tanpa menakutkan pelanggan.

Beberapa langkah praktikal yang boleh dijadikan pelan 12 bulan:

  1. Mapping semua keputusan kritikal yang guna AI

    • Skor kredit, harga premium, limit kad, pengesanan fraud, penilaian vendor, penjadualan produksi, pemantauan kualiti.
  2. Tetapkan prinsip fairness yang jelas

    • Contoh: perbezaan kadar lulus antara jantina atau negeri mesti dalam julat tertentu kecuali ada justifikasi risiko yang didokumenkan.
  3. Latih pasukan data & risiko tentang bias algoritma

    • Bukan sekadar teknikal, tetapi juga sudut DEI, undang-undang, dan reputasi.
  4. Jalankan audit berkala

    • Setiap 6 atau 12 bulan, uji semula model terhadap dataset terkini. Demografi pelanggan berubah, model lama mungkin mula bias.
  5. Komunikasi proaktif kepada pelanggan & vendor

    • Bukan dedah kod, tetapi terangkan secara umum: “Kami gunakan AI dengan kawalan fairness, audit dalaman, dan semakan manusia untuk kes kritikal.”

Ini bukan kerja sehari. Tapi lebih baik mula sekarang dengan langkah kecil, daripada menunggu satu krisis viral seperti isu LinkedIn baru mahu bertindak.


Penutup: AI Yang Adil Ialah Kelebihan Bersaing, Bukan Kos Tambahan

Isu algoritma LinkedIn yang dikatakan seksis hanyalah simptom masalah lebih besar: AI yang dibina tanpa kerangka keadilan dan ketelusan akhirnya akan dipersoalkan masyarakat.

Untuk bank, syarikat insurans, fintech dan pengilang elektronik/automotif di Malaysia, pelajarannya jelas:

  • Bias algoritma bukan masalah PR semata-mata, ia menyentuh kelulusan regulator, kestabilan model risiko dan reputasi jenama.
  • AI dalam manufaktur dan AI dalam kewangan berkongsi asas yang sama – data, model, dan persepsi keadilan.
  • Organisasi yang berani mengaudit dan mendedahkan bagaimana mereka mengurus risiko bias AI akan menang kepercayaan pelanggan jangka panjang.

Soalannya sekarang: adakah model AI anda sudah cukup “diperiksa hati” sebelum ia memutuskan siapa layak dapat kredit, perlindungan, atau peluang dalam rantaian bekalan anda? Kalau anda tak pasti, itulah isyarat paling jelas untuk mula audit bias hari ini.