Larangan AI Bias di AS & Pengajaran untuk Malaysia

AI dalam Sektor Perbankan Islam Malaysia••By 3L3C

White House melarang AI bias dalam agensi persekutuan. Apa pengajaran untuk Malaysia di era MyDIGITAL, digital ID dan smart city? Ini strategi praktikalnya.

AI dalam kerajaanetika AIMyDIGITALsektor awam MalaysiaAI biassmart citydigital identity
Share:

Larangan AI Bias di AS & Pengajaran untuk Malaysia

Pada 12/12/2025, Pejabat Pengurusan dan Bajet (OMB) White House mengeluarkan memo baharu yang mengarahkan agensi persekutuan berhenti menggunakan AI “bias” dan hanya menggunakan model bahasa besar (LLM) yang dianggap “tidak berat sebelah” dan “mencari kebenaran”. Tarikh akhir diberikan: 11/03/2026 semua polisi dalaman mesti dikemas kini.

Ini bukan sekadar isu politik Amerika. Ini isyarat jelas: etika AI sedang berubah daripada “nice to have” kepada mandat kerajaan. Untuk Malaysia yang sedang melaksanakan Blueprint Ekonomi Digital Malaysia (MyDIGITAL), langkah di Washington patut dilihat sebagai amaran awal — kalau kerajaan tak kawal bias AI, kepercayaan rakyat dan keselamatan negara boleh terjejas.

Dalam artikel ini, saya huraikan apa sebenarnya yang berlaku di AS, kenapa isu biased AI sangat penting untuk sektor awam, dan bagaimana kerajaan Malaysia boleh ambil pendekatan yang lebih matang dan praktikal daripada sekadar “buang AI yang tak sehaluan”.


Apa Sebenarnya Arahan White House Tentang AI “Bias”?

Ringkasnya, memo OMB itu menetapkan bahawa semua AI, khususnya large language model (LLM) yang digunakan agensi kerajaan persekutuan:

  • Mesti mengutamakan ketepatan sejarah dan sains,
  • Mesti objektif,
  • Mesti mengakui ketidaktentuan bila maklumat tak lengkap atau bercanggah,
  • Tidak boleh “memanipulasi jawapan ke arah dogma ideologi tertentu”.

Agensi juga diarahkan untuk:

  1. Mengkaji semula semua kontrak sedia ada yang menggunakan LLM dan mengubah syarat jika produk tak ikut Unbiased AI Principles.
  2. Kemas kini polisi dalaman sebelum 11/03/2026 untuk memastikan AI yang dibeli adalah “bebas ideologi”.
  3. Mewujudkan mekanisme aduan supaya pengguna dalam agensi boleh melaporkan LLM yang melanggar prinsip tersebut.
  4. Meminta maklumat mencukupi daripada vendor untuk menilai pematuhan — tanpa memaksa mereka mendedahkan rahsia teknikal sensitif seperti model weights.

OMB juga menegaskan agensi perlu menilai pengurusan risiko model, bukannya hanya melihat jawapan yang “dirasakan tidak selesa secara politik”. Namun dalam konteks pentadbiran ketika ini, ramai pakar di AS risau syarat “anti-woke” ini boleh diherotkan menjadi alat penapisan politik, bukan semata-mata kawalan bias.


Kenapa Biased AI Ancaman Serius untuk Kerajaan

Di atas kertas, semua orang setuju: AI kerajaan perlu adil, tepat dan boleh dipercayai. Masalahnya, bias dalam AI bukan isu teori — ia beri kesan langsung kepada rakyat.

Beberapa risiko utama untuk sektor awam:

1. Keputusan yang Menindas Golongan Tertentu

AI yang dilatih atas data sejarah cenderung mengulangi diskriminasi sedia ada. Contoh tipikal di luar negara:

  • Sistem pemprofilan risiko jenayah yang lebih keras terhadap kaum minoriti.
  • Model kelayakan pinjaman yang menolak lebih ramai pemohon dari kawasan “berisiko” walaupun pendapatan sama.

Dalam konteks Malaysia, bayangkan jika sistem skor risiko untuk bantuan sosial berat sebelah terhadap golongan B40 bandar berbanding luar bandar, hanya kerana data sejarah tak lengkap atau condong. Tanpa audit bias, diskriminasi ini boleh berlaku secara senyap.

2. Erosinya Kepercayaan Rakyat

MyDIGITAL meletakkan kepercayaan digital sebagai tunjang kepada transformasi kerajaan. Tapi kepercayaan ni rapuh. Jika rakyat mula rasa:

  • Chatbot kerajaan hanya jawab “ikut skrip politik”,
  • Sistem analitik CCTV hanya fokus kepada kumpulan tertentu,
  • Atau AI “menapis” fakta tak selari dengan naratif rasmi,

mereka akan anggap AI hanyalah alat propaganda, bukan teknologi awam yang dipercayai. Bila ini berlaku, inisiatif seperti digital ID, e-pembayaran bantuan, dan smart city akan sukar diterima.

3. Risiko Terhadap Keselamatan dan Kestabilan

Bias dalam analitik keselamatan atau pengawasan boleh menjadi ancaman:

  • Sistem pengesanan ancaman yang lebih kerap “flag” kumpulan tertentu tanpa asas kukuh,
  • Penggunaan analitik media sosial yang condong kepada satu aliran politik,
  • Model penilaian risiko siber yang memandang remeh ancaman tertentu kerana data sejarah tak lengkap.

Dalam ekosistem seperti Rangka Tindakan Keselamatan Siber Negara, AI yang bias boleh menghasilkan false positive dan false negative yang mengelirukan pembuat keputusan.


Dari Washington ke Kuala Lumpur: Apa Pengajaran untuk Malaysia?

Malaysia tak perlu menyalin mentah-mentah model AS. Malah, ada beberapa perkara yang saya rasa kita patut sengaja elakkan daripada pendekatan White House ini.

1. Elak Menjadikan “Anti-Bias” Sebagai Senjata Politik

Di AS, istilah seperti “woke AI” sudah jadi sangat politikal. Risiko besar ialah:

AI dinilai bukan berdasarkan ketepatan dan kebolehpercayaan, tetapi sama ada jawapannya selari dengan pendirian kerajaan semasa.

Malaysia perlu ambil jalan lebih profesional:

  • Letak standard teknikal dan etika yang jelas (contoh: ketepatan minimum, kadar ralat untuk kumpulan demografi berbeza, prosedur penjelasan keputusan).
  • Rangka polisi yang neutral dari sudut parti politik, tetapi tegas dari sudut hak asasi, kesaksamaan dan keselamatan.

2. Selaras Dengan Blueprint Ekonomi Digital Malaysia

MyDIGITAL dan dasar berkaitan sudah sebut beberapa perkara penting:

  • Teknologi yang beramanah (trustworthy technology),
  • Perlindungan data peribadi,
  • Tadbir urus AI yang bertanggungjawab.

Arahan seperti memo OMB di AS boleh diterjemah di Malaysia dalam bentuk:

  • Garis panduan nasional AI sektor awam yang mewajibkan penilaian bias dan impak sebelum sistem diluluskan.
  • Kerangka audit untuk projek AI kerajaan, termasuk projek smart city, sistem CCTV pintar, dan analitik data rakyat.
  • Penyelarasan dengan usaha sedia ada seperti Rangka Kerja AI Kebangsaan (jika diumumkan), dasar keselamatan siber, dan undang-undang perlindungan data.

3. Fokus kepada Proses, Bukan Hanya Output

Memo White House banyak menekankan output LLM: jangan “pro-woke”, mesti “truth-seeking”. Dari sudut teknikal, ini terlalu sempit.

Untuk Malaysia, pendekatan yang lebih kukuh ialah menumpukan kepada proses tadbir urus AI:

  • Bagaimana data dipilih, dibersihkan dan dianotasi.
  • Siapa yang menyemak dan meluluskan model sebelum digunapakai.
  • Bagaimana prestasi model dipantau untuk pelbagai kumpulan demografi.
  • Bagaimana rakyat boleh membuat aduan jika mereka percaya ditindas oleh keputusan AI.

Kalau proses ini mantap, isu bias politik akan lebih terkawal secara semula jadi.


Implikasi Terhadap Projek Digital Kerajaan Malaysia

Untuk pembuat dasar dan CIO sektor awam di Malaysia, persoalan praktikalnya ialah: apa yang perlu dibuat sekarang?

1. Projek Digital ID & Pengesahan Identiti

Dalam perancangan dan pelaksanaan digital ID, banyak AI digunakan di belakang tabir:

  • Pengecaman wajah,
  • Pengesanan dokumen palsu,
  • Penilaian risiko penipuan.

Kalau algoritma pengecaman wajah berprestasi rendah untuk sesetengah etnik atau jantina, itu sudah jadi AI bias yang menjejaskan hak individu. Kerajaan perlu:

  • Tetapkan metrik prestasi minimum mengikut kumpulan demografi,
  • Wajibkan vendor menyerahkan laporan ujian fairness,
  • Menyediakan jalan rayuan manual bila sistem automatik menolak pengguna.

2. Smart City & Analitik Pengawasan

Bandar raya seperti Kuala Lumpur, Cyberjaya, Johor Bahru sedang menguji pelbagai projek smart city:

  • CCTV dengan analitik tingkah laku,
  • Pengurusan trafik pintar,
  • Analitik kesesakan dan keselamatan awam.

Di sinilah pelajaran daripada AS sangat relevan. Malaysia perlu:

  • Waspada terhadap profiling melampau berdasarkan pakaian, bangsa atau lokasi.
  • Pastikan model dilatih dengan data tempatan yang pelbagai, bukan hanya dataset asing yang tak mewakili realiti Malaysia.
  • Tetapkan garis merah: contohnya, AI tak boleh digunakan untuk mengenal pasti pandangan politik atau agama seseorang daripada data digital.

3. Automasi Perkhidmatan Awam & Chatbot Kerajaan

Banyak agensi sedang membina chatbot dan pembantu maya berasaskan LLM. Ini bidang yang paling dekat dengan isu yang dibangkitkan White House.

Cabaran utama:

  • Adakah chatbot menjawab soalan sensitif (sejarah, perundangan, hak rakyat) dengan fakta yang sahih, atau sekadar “spin”?
  • Adakah ia memadam fakta yang sah kerana “tak selesa” kepada mana-mana pihak?

Apa yang patut dibuat:

  • Sediakan “grounding” rujukan rasmi kerajaan (akta, pekeliling, FAQ rasmi), dan arahkan LLM merujuk sumber ini dulu.
  • Bentuk panel semakan kandungan merentasi pelbagai agensi bagi topik sensitif.
  • Rekod dan audit sampel jawapan LLM secara berkala, sama seperti audit kewangan.

5 Langkah Praktikal Ke Arah AI Kerajaan yang Lebih Adil

Daripada pengalaman mengkaji projek sektor awam di beberapa negara, inilah pendekatan yang lebih realistik berbanding sekadar “melarang AI bias” secara umum:

  1. Wujudkan Prinsip AI Nasional yang Jelas
    Nyatakan secara rasmi apa maksud:

    • ketepatan,
    • kebolehjelasan,
    • kebebasan daripada diskriminasi,
    • akauntabiliti manusia.
  2. Jadikan Penilaian Bias Sebahagian Daripada Proses Perolehan
    Dalam setiap tender projek AI kerajaan, wajibkan:

    • Laporan model card atau dokumen setara,
    • Ringkasan data latihan (tanpa melanggar rahsia niaga),
    • Ujian fairness asas mengikut jantina, umur, etnik (mengikut kesesuaian undang-undang).
  3. Tetapkan Tarikh Akhir Audit Dalaman
    Sama seperti memo OMB menetapkan 11/03/2026, Malaysia boleh:

    • Tetapkan tempoh, contohnya 12–18 bulan, untuk semua sistem AI kritikal menjalani audit bias pertama,
    • Keutamaan diberi kepada sistem yang menyentuh hak rakyat: bantuan sosial, keselamatan, penguatkuasaan.
  4. Wujudkan Saluran Aduan Rakyat & Pegawai
    Jangan hanya fokus pada teknologi. Sediakan:

    • Saluran mudah untuk rakyat mengadu jika rasa dizalimi oleh keputusan sistem digital,
    • Mekanisme untuk pegawai awam melaporkan isu teknikal, tanpa takut tindakan tatatertib.
  5. Latih Pegawai Awam Jadi “Pengguna Kritis AI”
    AI yang paling bijak pun bahaya jika pengguna:

    • Terlalu percaya bulat-bulat, atau
    • Menggunakan output AI untuk menghalalkan keputusan yang sebenarnya bermotif lain.

    Latihan perlu meliputi:

    • Cara membaca had dan bias model,
    • Bila perlu guna semakan manual,
    • Bagaimana mendokumentasikan keputusan yang melibatkan AI.

Menjadikan Etika AI Sebagai Kelebihan Daya Saing Negara

Arahan White House untuk memberhentikan penggunaan AI bias menunjukkan satu trend global: kerajaan tak lagi boleh guna AI secara “asal jalan”. Ada harga politik, undang-undang dan sosial bila AI menindas atau memanipulasi.

Malaysia sebenarnya berada pada posisi yang baik. Dengan MyDIGITAL, fokus kepada kerajaan digital, smart city dan ekonomi data, kita boleh:

  • Menetapkan standard etika AI sektor awam yang jelas dan telus,
  • Menjadikannya sebahagian daripada jenama negara: Malaysia sebagai hab digital yang bukan sahaja canggih, tetapi juga beramanah,
  • Menggalakkan vendor tempatan membina produk AI yang “regulation-ready” untuk pasaran serantau.

Kalau Malaysia berjaya, kita bukan saja mengelak perang budaya “woke vs anti-woke” seperti di AS. Kita akan tunjuk bahawa AI dalam kerajaan boleh memperkukuh, bukan merosakkan, kontrak sosial dengan rakyat.

Dan untuk mana-mana agensi atau syarikat teknologi yang membaca ini: lebih awal anda membina AI yang telus, boleh diaudit dan adil, lebih mudah untuk menang projek sektor awam dalam 2–3 tahun akan datang.

Persoalannya sekarang, bukan lagi “perlu atau tidak regulasi AI?” Tetapi: adakah kita bersedia melabur masa dan kepakaran untuk melaksanakannya dengan bijak — sebelum insiden besar memaksa kita bertindak dalam keadaan panik?