Bias Algoritma AI: Amaran Untuk Kewangan & Tenaga

AI dalam Minyak & Gas / Tenaga (Petronas & Utiliti Utama)••By 3L3C

Isu algoritma LinkedIn yang didakwa seksis jadi amaran keras: AI dalam kewangan dan tenaga Malaysia mesti dipantau untuk bias, bukan sekadar kejar ketepatan.

AI kewanganAI minyak dan gasbias algoritmaDEIgovernance AIPetronasfintech Malaysia
Share:

AI Adil Atau Berat Sebelah? Pengajaran Dari Isu LinkedIn

Pada 2023, satu eksperimen ringkas oleh beberapa wanita profesional di AS mendakwa algoritma LinkedIn kurang memaparkan profil wanita berbanding lelaki. Hanya beza pada nama jantina, tapi capaian (reach) dan engagement berubah ketara. Tiba‑tiba, persoalan bias algoritma AI jadi topik hangat semula.

Ini bukan sekadar isu media sosial. Ini cermin kepada masalah yang sama dalam sektor yang jauh lebih sensitif: perbankan, insurans, fintech, minyak & gas, dan tenaga. Jika algoritma yang pilih post untuk newsfeed pun boleh berat sebelah, apa jadi bila algoritma yang sama logiknya digunakan untuk skor kredit, kelulusan pinjaman, harga insurans, penilaian risiko projek tenaga atau keselamatan tapak minyak & gas?

Dalam siri "AI dalam Minyak & Gas / Tenaga" ini, saya nak kaitkan kontroversi LinkedIn tadi dengan satu soalan pedas: adakah model AI yang digunakan oleh bank, syarikat insurans, fintech, Petronas dan utiliti besar Malaysia benar‑benar adil – atau sekadar kelihatan pintar di atas kertas?

Apa Sebenarnya Berlaku Dengan Algoritma LinkedIn?

Isu LinkedIn tunjuk satu realiti pahit: algoritma AI jarang neutral, ia hanya sebaik data dan objektif yang diberi.

Ringkasnya, beberapa wanita profesional menukar butiran profil LinkedIn mereka dan menjalankan eksperimen tidak formal:

  • Nama wanita ditukar kepada nama lelaki (atau sebaliknya)
  • Tajuk kerja, pengalaman dan skills dikekalkan sama
  • Mereka bandingkan kadar view profil, connection request dan engagement untuk tempoh tertentu

Keputusannya: profil berjantina lelaki nampak lebih banyak capaian. Mereka pun buat kesimpulan: algoritma LinkedIn seksis.

Pakar AI dan saintis data pula kata: cerita ini lebih kompleks:

  • Algoritma media sosial biasanya dioptimumkan untuk engagement, bukan keadilan.
  • Tingkah laku pengguna (siapa klik siapa, siapa lebih aktif) boleh wujudkan bias tingkah laku, walaupun kod tak “niat” untuk diskriminasi.
  • Faktor lain seperti industri, senioriti, lokasi, network sedia ada dan masa posting juga mempengaruhi hasil.

Tapi di sinilah point pentingnya: bila hasil nyata kelihatan berat sebelah, orang tak akan kisah sangat sama ada punca awalnya dari kod, data, atau tingkah laku pengguna. Mereka hanya nampak kesan diskriminasi.

Ini sama dengan pelanggan bank yang ditolak pinjaman:

“Model anda neutral atau tidak, saya tetap tak dapat rumah.”

Dari LinkedIn ke Bank & Tenaga: Risiko Bias Jadi Jauh Lebih Serius

Dalam media sosial, bias mungkin “hanya” menjejaskan visibility. Dalam kewangan dan tenaga, ia menyentuh hidup, keselamatan dan masa depan ekonomi.

Di sektor kewangan Malaysia

Model AI kini digunakan untuk:

  • Skor kredit & kelulusan pinjaman (perumahan, SME, hire purchase)
  • Pengesanan fraud transaksi kad dan e-wallet
  • Penentuan harga insurans (health, motor, takaful)
  • Chatbot & rekomendasi produk kewangan

Jika model ini bias terhadap kumpulan tertentu – contohnya wanita, Bumiputera di luar bandar, migran sah, atau usahawan mikro – kesannya boleh jadi:

  • Individu berpendapatan stabil tapi berasal dari kawasan “berisiko” sukar lulus pinjaman
  • Pemandu wanita diberi premium insurans yang tak munasabah kerana data sejarah yang skewed
  • Pelanggan senior lebih kerap ditandakan sebagai “fraud risk” kerana corak penggunaan yang tak tipikal

Di sektor minyak & gas / tenaga

Dalam minyak & gas dan utiliti, AI digunakan untuk:

  • Reservoir modelling – jangkaan hasil telaga, keputusan pelaburan
  • Predictive maintenance – ramal kegagalan equipment, jadual shutdown
  • Pemantauan keselamatan – pengesanan kebocoran, near-miss, unsafe behaviour
  • Pengoptimuman tenaga – load forecasting, pengurusan grid, penjanaan hijau

Bias dalam model di sini boleh menyebabkan:

  • Kawasan lapangan milik vendor tertentu dilihat “kurang menguntungkan” hanya kerana data sejarah tak lengkap
  • Tapak di kawasan luar bandar yang majoritinya pekerja kontrak tempatan kurang diberi prioriti dalam maintenance
  • Sistem keselamatan visual AI lebih tepat mengenal pasti PPE pada kulit cerah berbanding kulit gelap -> risiko near‑miss tak dikesan

Dalam konteks Petronas dan utiliti besar, ini bukan sekadar isu DEI di HR, tapi juga risiko keselamatan operasi, reputasi dan pematuhan peraturan.

Dari Mana Datang Bias? 4 Punca Utama Yang Sering Terlepas Pandang

Bias algoritma jarang datang dari satu punca. Ia biasanya kombinasi empat perkara: data, reka bentuk model, cara guna, dan konteks bisnes.

1. Data sejarah yang sudah berat sebelah

Jika bank dulu lebih kerap luluskan pinjaman kepada lelaki bandar, model yang dilatih atas data tersebut akan:

  • “Belajar” bahawa lelaki bandar = lebih selamat
  • “Belajar” bahawa wanita luar bandar = lebih berisiko

Dalam minyak & gas pula:

  • Data near-miss mungkin lebih lengkap di tapak yang banyak expat, kurang lengkap di tapak luar bandar
  • Data sensor di telaga lama mungkin noisy berbanding telaga baru

Model tak faham sejarah atau konteks; ia hanya ikut corak angka. Kalau data lama diskriminatif, AI akan jadikan diskriminasi itu digital dan skala besar.

2. Objektif model yang salah fokus

Ramai organisasi set objektif model seperti:

  • Maksimumkan kelulusan yang tak default untuk pinjaman
  • Maksimumkan engagement untuk newsfeed
  • Maksimumkan uptime untuk equipment

Tanpa sebarang kekangan keadilan, model akan pilih jalan paling mudah:

  • Elak kumpulan yang “nampak lebih berisiko” walaupun risiko actual mereka terkawal
  • Tekan lebih banyak kandungan dari kumpulan yang historically dapat lebih klik

3. Ciri (features) yang mewakili identiti sensitif secara tidak langsung

Walaupun kita tak letak jantina atau kaum dalam model, field seperti:

  • Kod pos
  • Jenis sekolah
  • Bahasa yang digunakan
  • Jenis pekerjaan

boleh bertindak sebagai proxy kepada identiti sensitif. Dalam konteks Malaysia, kod pos selalunya berkait rapat dengan demografi kaum dan tahap pendapatan. Tanpa ujian fairness, model akan tetap bias walaupun tiada “gender” dalam dataset.

4. Cara AI digunakan dalam proses sebenar

Kadang‑kadang model ok, tapi cara ia diintegrasi yang bermasalah:

  • Bank jadikan skor model sebagai “gate” automatik, tanpa semakan manual untuk borderline cases
  • Syarikat tenaga biar prediction AI tentukan keutamaan maintenance tanpa panduan jurutera senior
  • HR guna skor AI untuk tapis calon awal tanpa audit terhadap false negative (calon bagus yang ditolak)

Akhirnya, manusia hilang peluang untuk membetulkan bias model.

Apa Yang Syarikat Kewangan & Tenaga Malaysia Patut Buat Sekarang

Ada cara praktikal untuk kurangkan bias, dan ia patut jadi syarat, bukan pilihan. Saya ringkaskan kepada enam langkah utama yang saya rasa realistik untuk bank, insurans, fintech, Petronas dan utiliti besar.

1. Tetapkan polisi “Responsible AI” yang jelas

Sebelum beli atau bina apa‑apa model AI:

  • Nyatakan prinsip (adil, telus, boleh diaudit, mematuhi undang‑undang Malaysia, patuh syariah jika relevan)
  • Bentuk jawatankuasa governance AI yang ada gabungan: IT/data, risk & compliance, legal, bisnes, dan wakil HR/DEI
  • Wajibkan AI impact assessment untuk use case sensitif seperti skor kredit, penetapan harga, penilaian risiko keselamatan tapak

2. Audit data dan model untuk fairness – bukan hanya accuracy

Ramai hanya tengok metrik seperti AUC, precision, recall. Itu tak cukup. Tambahkan metrik fairness seperti:

  • Perbezaan kadar approval antara lelaki dan wanita untuk pinjaman yang sama profil risiko
  • Perbezaan kadar false positive / false negative antara kumpulan demografi
  • Dalam minyak & gas: perbezaan kadar pengesanan insiden mengikut lokasi, vendor, jenis shift

Buat UAT fairness sebagai sebahagian daripada proses go‑live, sama seperti UAT fungsi biasa.

3. Kurangkan pengaruh ciri yang bertindak sebagai proxy identiti

Lakukan eksperimen:

  • Latih model dengan dan tanpa kod pos, bandingkan prestasi
  • Group kod pos kepada kategori sosio‑ekonomi yang lebih neutral
  • Hadkan penggunaan field seperti jenis sekolah kepada konteks yang benar‑benar perlu

Dalam operasi tenaga:

  • Semak sama ada lokasi atau vendor tertentu jadi faktor dominan yang tak munasabah dalam model risk atau maintenance

4. Wajibkan “manusia dalam gelung” (human-in-the-loop)

Untuk keputusan kritikal:

  • Sediakan saluran rayuan (appeal) bagi pelanggan yang ditolak pinjaman atau claim insurans
  • Untuk skor risiko tapak minyak & gas, jadikan output model sebagai input kepada panel jurutera, bukan penentu tunggal
  • Latih pegawai barisan hadapan untuk faham had model dan berani override dengan justifikasi jelas

5. Dokumentasi dan kebolehtelusan untuk regulator & pelanggan

Bank Negara Malaysia, Suruhanjaya Sekuriti, Suruhanjaya Tenaga dan DOSH makin fokus kepada penggunaan AI. Lebih baik kita sudah bersedia dengan:

  • Dokumentasi model: tujuan, data sumber, metrik prestasi, metrik fairness, proses review
  • Polisi dalaman tentang bagaimana pelanggan boleh mempersoalkan atau bertanya tentang keputusan berasaskan model
  • Jawapan standard yang telus tetapi masih melindungi IP komersial

6. Uji vendor AI seperti anda uji vendor keselamatan

Banyak bank dan syarikat utilities menggunakan vendor luar untuk sistem AI (chatbot, fraud detection, predictive maintenance).

Jangan hanya tanya harga dan SLA. Tanya juga:

  • Adakah model mereka diuji untuk bias? Atas dimensi apa?
  • Bolehkah anda dapatkan laporan fairness, atau sekurang‑kurangnya metrik ringkas mengikut segment utama Malaysia?
  • Di mana data anda disimpan dan bagaimana ia dilindungi?

Syarikat yang serius tentang responsible AI biasanya tak defensif bila soalan fairness ditanya.

Kenapa Isu Ini Mendesak Sekarang, Bukan Nanti

Tahun 2025 menyaksikan AI generatif dan model besar (LLM) diserap pantas dalam operasi bank dan tenaga di Malaysia. Chatbot berbahasa Melayu, sistem dokumen kontrak automatik, analisis log operasi telaga – semuanya bergantung pada model AI yang boleh juga mengandungi bias tersendiri.

Dalam konteks DEI, ramai syarikat kini ada sasaran:

  • Lebih ramai wanita di jawatan kritikal HSE & operasi
  • Lebih banyak vendor tempatan dalam rantaian bekalan minyak & gas
  • Akses kewangan lebih inklusif untuk B40 dan SME

Semua target ini boleh terbantut diam‑diam jika sistem AI yang kita guna:

  • Kurang menapis resume wanita untuk jawatan teknikal
  • Menanda vendor kecil sebagai “terlalu berisiko” berdasarkan data masa lalu yang berat sebelah
  • Menolak lebih banyak permohonan pinjaman dari kawasan luar bandar

Isu LinkedIn mengingatkan kita: kalau algoritma media sosial pun orang berani audit secara crowd-sourced, pelanggan dan pekerja anda juga akan mula mempersoalkan model dalaman anda. Lebih baik anda jumpa masalah itu dulu sebelum ia viral.

Penutup: Masa Untuk AI Yang Pintar Dan Adil

Realitinya, AI dalam kewangan dan tenaga di Malaysia tak boleh lagi hanya diukur pada “berapa tepat” dan “berapa jimat kos”. Ia perlu juga diukur pada “berapa adil” dan “berapa mudah diaudit”.

Insiden LinkedIn tak perlu ditunggu di Malaysia baru kita bergerak. Bank, insurans, fintech, Petronas dan utiliti besar boleh mula hari ini dengan:

  • Mengkaji semula model sedia ada untuk bias jelas
  • Menubuhkan struktur governance AI yang tegas
  • Meletakkan fairness sebagai metrik rasmi dalam setiap projek AI berimpak besar

Persoalannya sekarang: bila pelanggan, pekerja atau regulator mula bertanya “algoritma anda adil atau tidak?”, adakah anda bersedia dengan jawapan – dan bukti?