Isu algoritma LinkedIn yang didakwa seksis jadi amaran keras: AI dalam kewangan dan tenaga Malaysia mesti dipantau untuk bias, bukan sekadar kejar ketepatan.
AI Adil Atau Berat Sebelah? Pengajaran Dari Isu LinkedIn
Pada 2023, satu eksperimen ringkas oleh beberapa wanita profesional di AS mendakwa algoritma LinkedIn kurang memaparkan profil wanita berbanding lelaki. Hanya beza pada nama jantina, tapi capaian (reach) dan engagement berubah ketara. Tiba‑tiba, persoalan bias algoritma AI jadi topik hangat semula.
Ini bukan sekadar isu media sosial. Ini cermin kepada masalah yang sama dalam sektor yang jauh lebih sensitif: perbankan, insurans, fintech, minyak & gas, dan tenaga. Jika algoritma yang pilih post untuk newsfeed pun boleh berat sebelah, apa jadi bila algoritma yang sama logiknya digunakan untuk skor kredit, kelulusan pinjaman, harga insurans, penilaian risiko projek tenaga atau keselamatan tapak minyak & gas?
Dalam siri "AI dalam Minyak & Gas / Tenaga" ini, saya nak kaitkan kontroversi LinkedIn tadi dengan satu soalan pedas: adakah model AI yang digunakan oleh bank, syarikat insurans, fintech, Petronas dan utiliti besar Malaysia benar‑benar adil – atau sekadar kelihatan pintar di atas kertas?
Apa Sebenarnya Berlaku Dengan Algoritma LinkedIn?
Isu LinkedIn tunjuk satu realiti pahit: algoritma AI jarang neutral, ia hanya sebaik data dan objektif yang diberi.
Ringkasnya, beberapa wanita profesional menukar butiran profil LinkedIn mereka dan menjalankan eksperimen tidak formal:
- Nama wanita ditukar kepada nama lelaki (atau sebaliknya)
- Tajuk kerja, pengalaman dan skills dikekalkan sama
- Mereka bandingkan kadar view profil, connection request dan engagement untuk tempoh tertentu
Keputusannya: profil berjantina lelaki nampak lebih banyak capaian. Mereka pun buat kesimpulan: algoritma LinkedIn seksis.
Pakar AI dan saintis data pula kata: cerita ini lebih kompleks:
- Algoritma media sosial biasanya dioptimumkan untuk engagement, bukan keadilan.
- Tingkah laku pengguna (siapa klik siapa, siapa lebih aktif) boleh wujudkan bias tingkah laku, walaupun kod tak “niat” untuk diskriminasi.
- Faktor lain seperti industri, senioriti, lokasi, network sedia ada dan masa posting juga mempengaruhi hasil.
Tapi di sinilah point pentingnya: bila hasil nyata kelihatan berat sebelah, orang tak akan kisah sangat sama ada punca awalnya dari kod, data, atau tingkah laku pengguna. Mereka hanya nampak kesan diskriminasi.
Ini sama dengan pelanggan bank yang ditolak pinjaman:
“Model anda neutral atau tidak, saya tetap tak dapat rumah.”
Dari LinkedIn ke Bank & Tenaga: Risiko Bias Jadi Jauh Lebih Serius
Dalam media sosial, bias mungkin “hanya” menjejaskan visibility. Dalam kewangan dan tenaga, ia menyentuh hidup, keselamatan dan masa depan ekonomi.
Di sektor kewangan Malaysia
Model AI kini digunakan untuk:
- Skor kredit & kelulusan pinjaman (perumahan, SME, hire purchase)
- Pengesanan fraud transaksi kad dan e-wallet
- Penentuan harga insurans (health, motor, takaful)
- Chatbot & rekomendasi produk kewangan
Jika model ini bias terhadap kumpulan tertentu – contohnya wanita, Bumiputera di luar bandar, migran sah, atau usahawan mikro – kesannya boleh jadi:
- Individu berpendapatan stabil tapi berasal dari kawasan “berisiko” sukar lulus pinjaman
- Pemandu wanita diberi premium insurans yang tak munasabah kerana data sejarah yang skewed
- Pelanggan senior lebih kerap ditandakan sebagai “fraud risk” kerana corak penggunaan yang tak tipikal
Di sektor minyak & gas / tenaga
Dalam minyak & gas dan utiliti, AI digunakan untuk:
- Reservoir modelling – jangkaan hasil telaga, keputusan pelaburan
- Predictive maintenance – ramal kegagalan equipment, jadual shutdown
- Pemantauan keselamatan – pengesanan kebocoran, near-miss, unsafe behaviour
- Pengoptimuman tenaga – load forecasting, pengurusan grid, penjanaan hijau
Bias dalam model di sini boleh menyebabkan:
- Kawasan lapangan milik vendor tertentu dilihat “kurang menguntungkan” hanya kerana data sejarah tak lengkap
- Tapak di kawasan luar bandar yang majoritinya pekerja kontrak tempatan kurang diberi prioriti dalam maintenance
- Sistem keselamatan visual AI lebih tepat mengenal pasti PPE pada kulit cerah berbanding kulit gelap -> risiko near‑miss tak dikesan
Dalam konteks Petronas dan utiliti besar, ini bukan sekadar isu DEI di HR, tapi juga risiko keselamatan operasi, reputasi dan pematuhan peraturan.
Dari Mana Datang Bias? 4 Punca Utama Yang Sering Terlepas Pandang
Bias algoritma jarang datang dari satu punca. Ia biasanya kombinasi empat perkara: data, reka bentuk model, cara guna, dan konteks bisnes.
1. Data sejarah yang sudah berat sebelah
Jika bank dulu lebih kerap luluskan pinjaman kepada lelaki bandar, model yang dilatih atas data tersebut akan:
- “Belajar” bahawa lelaki bandar = lebih selamat
- “Belajar” bahawa wanita luar bandar = lebih berisiko
Dalam minyak & gas pula:
- Data near-miss mungkin lebih lengkap di tapak yang banyak expat, kurang lengkap di tapak luar bandar
- Data sensor di telaga lama mungkin noisy berbanding telaga baru
Model tak faham sejarah atau konteks; ia hanya ikut corak angka. Kalau data lama diskriminatif, AI akan jadikan diskriminasi itu digital dan skala besar.
2. Objektif model yang salah fokus
Ramai organisasi set objektif model seperti:
- Maksimumkan kelulusan yang tak default untuk pinjaman
- Maksimumkan engagement untuk newsfeed
- Maksimumkan uptime untuk equipment
Tanpa sebarang kekangan keadilan, model akan pilih jalan paling mudah:
- Elak kumpulan yang “nampak lebih berisiko” walaupun risiko actual mereka terkawal
- Tekan lebih banyak kandungan dari kumpulan yang historically dapat lebih klik
3. Ciri (features) yang mewakili identiti sensitif secara tidak langsung
Walaupun kita tak letak jantina atau kaum dalam model, field seperti:
- Kod pos
- Jenis sekolah
- Bahasa yang digunakan
- Jenis pekerjaan
boleh bertindak sebagai proxy kepada identiti sensitif. Dalam konteks Malaysia, kod pos selalunya berkait rapat dengan demografi kaum dan tahap pendapatan. Tanpa ujian fairness, model akan tetap bias walaupun tiada “gender” dalam dataset.
4. Cara AI digunakan dalam proses sebenar
Kadang‑kadang model ok, tapi cara ia diintegrasi yang bermasalah:
- Bank jadikan skor model sebagai “gate” automatik, tanpa semakan manual untuk borderline cases
- Syarikat tenaga biar prediction AI tentukan keutamaan maintenance tanpa panduan jurutera senior
- HR guna skor AI untuk tapis calon awal tanpa audit terhadap false negative (calon bagus yang ditolak)
Akhirnya, manusia hilang peluang untuk membetulkan bias model.
Apa Yang Syarikat Kewangan & Tenaga Malaysia Patut Buat Sekarang
Ada cara praktikal untuk kurangkan bias, dan ia patut jadi syarat, bukan pilihan. Saya ringkaskan kepada enam langkah utama yang saya rasa realistik untuk bank, insurans, fintech, Petronas dan utiliti besar.
1. Tetapkan polisi “Responsible AI” yang jelas
Sebelum beli atau bina apa‑apa model AI:
- Nyatakan prinsip (adil, telus, boleh diaudit, mematuhi undang‑undang Malaysia, patuh syariah jika relevan)
- Bentuk jawatankuasa governance AI yang ada gabungan: IT/data, risk & compliance, legal, bisnes, dan wakil HR/DEI
- Wajibkan AI impact assessment untuk use case sensitif seperti skor kredit, penetapan harga, penilaian risiko keselamatan tapak
2. Audit data dan model untuk fairness – bukan hanya accuracy
Ramai hanya tengok metrik seperti AUC, precision, recall. Itu tak cukup. Tambahkan metrik fairness seperti:
- Perbezaan kadar approval antara lelaki dan wanita untuk pinjaman yang sama profil risiko
- Perbezaan kadar false positive / false negative antara kumpulan demografi
- Dalam minyak & gas: perbezaan kadar pengesanan insiden mengikut lokasi, vendor, jenis shift
Buat UAT fairness sebagai sebahagian daripada proses go‑live, sama seperti UAT fungsi biasa.
3. Kurangkan pengaruh ciri yang bertindak sebagai proxy identiti
Lakukan eksperimen:
- Latih model dengan dan tanpa kod pos, bandingkan prestasi
- Group kod pos kepada kategori sosio‑ekonomi yang lebih neutral
- Hadkan penggunaan field seperti jenis sekolah kepada konteks yang benar‑benar perlu
Dalam operasi tenaga:
- Semak sama ada lokasi atau vendor tertentu jadi faktor dominan yang tak munasabah dalam model risk atau maintenance
4. Wajibkan “manusia dalam gelung” (human-in-the-loop)
Untuk keputusan kritikal:
- Sediakan saluran rayuan (appeal) bagi pelanggan yang ditolak pinjaman atau claim insurans
- Untuk skor risiko tapak minyak & gas, jadikan output model sebagai input kepada panel jurutera, bukan penentu tunggal
- Latih pegawai barisan hadapan untuk faham had model dan berani override dengan justifikasi jelas
5. Dokumentasi dan kebolehtelusan untuk regulator & pelanggan
Bank Negara Malaysia, Suruhanjaya Sekuriti, Suruhanjaya Tenaga dan DOSH makin fokus kepada penggunaan AI. Lebih baik kita sudah bersedia dengan:
- Dokumentasi model: tujuan, data sumber, metrik prestasi, metrik fairness, proses review
- Polisi dalaman tentang bagaimana pelanggan boleh mempersoalkan atau bertanya tentang keputusan berasaskan model
- Jawapan standard yang telus tetapi masih melindungi IP komersial
6. Uji vendor AI seperti anda uji vendor keselamatan
Banyak bank dan syarikat utilities menggunakan vendor luar untuk sistem AI (chatbot, fraud detection, predictive maintenance).
Jangan hanya tanya harga dan SLA. Tanya juga:
- Adakah model mereka diuji untuk bias? Atas dimensi apa?
- Bolehkah anda dapatkan laporan fairness, atau sekurang‑kurangnya metrik ringkas mengikut segment utama Malaysia?
- Di mana data anda disimpan dan bagaimana ia dilindungi?
Syarikat yang serius tentang responsible AI biasanya tak defensif bila soalan fairness ditanya.
Kenapa Isu Ini Mendesak Sekarang, Bukan Nanti
Tahun 2025 menyaksikan AI generatif dan model besar (LLM) diserap pantas dalam operasi bank dan tenaga di Malaysia. Chatbot berbahasa Melayu, sistem dokumen kontrak automatik, analisis log operasi telaga – semuanya bergantung pada model AI yang boleh juga mengandungi bias tersendiri.
Dalam konteks DEI, ramai syarikat kini ada sasaran:
- Lebih ramai wanita di jawatan kritikal HSE & operasi
- Lebih banyak vendor tempatan dalam rantaian bekalan minyak & gas
- Akses kewangan lebih inklusif untuk B40 dan SME
Semua target ini boleh terbantut diam‑diam jika sistem AI yang kita guna:
- Kurang menapis resume wanita untuk jawatan teknikal
- Menanda vendor kecil sebagai “terlalu berisiko” berdasarkan data masa lalu yang berat sebelah
- Menolak lebih banyak permohonan pinjaman dari kawasan luar bandar
Isu LinkedIn mengingatkan kita: kalau algoritma media sosial pun orang berani audit secara crowd-sourced, pelanggan dan pekerja anda juga akan mula mempersoalkan model dalaman anda. Lebih baik anda jumpa masalah itu dulu sebelum ia viral.
Penutup: Masa Untuk AI Yang Pintar Dan Adil
Realitinya, AI dalam kewangan dan tenaga di Malaysia tak boleh lagi hanya diukur pada “berapa tepat” dan “berapa jimat kos”. Ia perlu juga diukur pada “berapa adil” dan “berapa mudah diaudit”.
Insiden LinkedIn tak perlu ditunggu di Malaysia baru kita bergerak. Bank, insurans, fintech, Petronas dan utiliti besar boleh mula hari ini dengan:
- Mengkaji semula model sedia ada untuk bias jelas
- Menubuhkan struktur governance AI yang tegas
- Meletakkan fairness sebagai metrik rasmi dalam setiap projek AI berimpak besar
Persoalannya sekarang: bila pelanggan, pekerja atau regulator mula bertanya “algoritma anda adil atau tidak?”, adakah anda bersedia dengan jawapan – dan bukti?