AS jadikan AI untuk kesihatan mental tentera sebagai keutamaan undang-undang. Apa pengajarannya untuk Malaysia dalam agenda MyDIGITAL dan sektor awam?
AI untuk kesihatan mental askar: apabila keselamatan dan kebajikan bertemu
523 anggota tentera Amerika bunuh diri pada tahun 2023. Di kalangan veteran, anggaran sekitar 6,500 kematian setahun dan angka itu hampir tak berubah sejak 2008.
Angka ini cukup untuk buat mana-mana kerajaan rasa gentar. Sebab itu FY26 National Defense Authorization Act (NDAA) di Amerika kini menyertakan arahan jelas: Jabatan Pertahanan (DOD) mesti memprioritikan penggunaan kecerdasan buatan (AI) untuk menyokong kesihatan mental anggota tentera.
Ini bukan sekadar cerita Amerika. Untuk Malaysia yang sedang melaksanakan Rangka Tindakan Ekonomi Digital Malaysia (MyDIGITAL) dan aspirasi "AI untuk kebaikan awam", langkah ini adalah contoh langsung bagaimana AI dalam sektor kerajaan boleh menyentuh aspek paling sensitif – nyawa manusia.
Dalam artikel ini, saya huraikan apa sebenarnya yang sedang dibuat oleh DOD, bagaimana AI digunakan dalam pencegahan bunuh diri tentera, dan kenapa pendekatan ini patut menarik perhatian Kementerian Pertahanan, KKM, MAMPU dan agensi keselamatan Malaysia.
Apa yang NDAA arahkan: AI sebagai senjata baharu melawan krisis mental
NDAA bernilai kira-kira USD 900 bilion itu menetapkan satu hala tuju strategik: AI bukan hanya untuk senjata dan risikan, tetapi juga untuk kesihatan mental dan kebajikan anggota.
Laporan Jawatankuasa Perkhidmatan Bersenjata Dewan (House Armed Services Committee) menyatakan mereka percaya kadar bunuh diri tentera adalah "tidak boleh diterima" dan perlukan pendekatan baharu. Pendekatan baharu itu ialah:
"Memprioritikan pembangunan dan penggabungan AI untuk mengikut rentak perubahan keperluan kesihatan mental dalam kalangan anggota."
Secara ringkas, fokus mereka ialah:
- Menggunakan model ramalan berasaskan data untuk kesan awal anggota berisiko
- Menyokong intervensi awal – sebelum krisis berlaku
- Menambah baik akses dan kapasiti perkhidmatan kesihatan mental
- Mengurangkan stigma melalui sokongan digital yang lebih senyap dan privasi terjaga
Ini semua masih berada dalam rangka polisi pertahanan, bukan sekadar projek teknologi kecil-kecilan. Maknanya: kerajaan sudah meletakkan AI kesihatan mental sebagai sebahagian daripada strategi keselamatan negara.
Bagi siri "AI in Government & Public Sector", ini satu contoh jelas bagaimana polisi nasional, keselamatan dan kebajikan boleh disatukan melalui AI.
SAVES: Contoh konkrit bagaimana AI mengesan askar berisiko bunuh diri
Bahagian paling menarik dalam laporan ini ialah rujukan kepada satu sistem sebenar: Suicide Analytic Variable Evaluation System (SAVES) yang sedang dipilot oleh Tentera Udara AS bersama Accenture Federal Services.
Bagaimana SAVES berfungsi
SAVES menggunakan AI untuk menganalisis pelbagai data tentang anggota:
- Corak kerja dan syif
- Sejarah kesihatan mental
- Tekanan kerja dan persekitaran
- Krisis peribadi (contohnya masalah keluarga, kewangan)
Daripada gabungan data ini, sistem cuba menganggar risiko seseorang anggota untuk mengalami krisis – termasuk risiko bunuh diri.
Bukan itu sahaja. Sistem ini juga:
- Mencadangkan intervensi – seperti rujukan terapi, pelarasan jadual tugas, atau masa bersama keluarga
- Menyokong pemimpin unit dengan pandangan awal, supaya mereka boleh campur tangan sebelum terlambat
Dalam erti kata lain, SAVES ialah satu bentuk AI pencegahan (preventive AI): ia tak tunggu anggota datang mencari bantuan; ia cuba cari mereka dahulu.
Apa yang Malaysia boleh belajar
Kita sebenarnya tak jauh sangat dari logik yang sama. Bayangkan senario berikut:
- Anggota ATM yang berulang kali terlibat dalam operasi berisiko tinggi, kurang cuti, dan mula menunjukkan corak kehadiran tak konsisten
- Anggota polis yang banyak terlibat kes jenayah berat dan trauma visual
- Anggota Bomba, APM, atau petugas kesihatan awam yang berdepan insiden kritikal berulang kali
Dengan AI analitik dalam kerajaan, data HR, cuti, rekod latihan, laporan disiplin dan rekod perubatan (yang dipseudonimkan dan diproteksikan) boleh digabungkan untuk:
- Mengibarkan "bendera awal" risiko burnout atau kemurungan
- Memberi amaran kepada pegawai psikologi atau pegawai atasan
- Memberi cadangan automatik – contohnya, ubah syif, tambah sesi kaunseling, atau susun semula tugasan
Ini bukan tentang memantau untuk menghukum. Ini tentang memantau untuk melindungi.
Mengapa AI kesihatan mental tentera relevan untuk Malaysia
Kalau kita tengok secara jujur, banyak kerajaan – termasuk Malaysia – lebih selesa bercakap tentang AI untuk smart city, CCTV pintar, automasi kaunter, e-servis. Semua itu penting, tapi aspek kesihatan mental dan kebajikan penjawat awam & anggota keselamatan sering jatuh nombor dua.
Pendekatan DOD menunjukkan tiga perkara yang patut jadi isyarat penting untuk kita:
1. Kesihatan mental adalah isu keselamatan negara
Anggota yang:
- burnout,
- trauma berpanjangan,
- atau menyembunyikan tekanan kerana takut stigma,
boleh memberi kesan langsung kepada kesiapsiagaan pertahanan. Dari sudut polisi, meletakkan AI untuk kesihatan mental dalam Akta Pertahanan menunjukkan ia bukan program sampingan – ia adalah infrastruktur strategik.
Bagi Malaysia, pendekatan ini boleh diterjemah dalam bentuk:
- Dasar AI Sektor Awam yang jelas memasukkan kesihatan mental penjawat awam dan anggota keselamatan sebagai salah satu kluster
- Sasaran di bawah MyDIGITAL untuk "AI for Public Good" yang merangkumi projek pencegahan bunuh diri dan kesihatan mental, bukan hanya efisiensi operasi
2. Data kesihatan mental perlu diurus seperti aset keselamatan
Untuk AI berfungsi, kerajaan perlu:
- Data yang cukup luas dan konsisten
- Proses data governance yang ketat
- Perlindungan privasi dan keselamatan maklumat
Ini selari dengan keperluan infrastruktur data nasional yang sedang dibangunkan di bawah MyDIGITAL: data raya, integrasi antara kementerian, pusat data kerajaan dan sebagainya.
Realitinya, kalau kita serius nak gunakan AI untuk kesihatan mental anggota keselamatan, kita perlu:
- Garis panduan jelas antara KKM, MINDEF, PDRM dan JPA mengenai perkongsian data yang selamat
- Mekanisme pseudonimisasi dan anonymisasi data sebelum digunakan untuk latihan model AI
- Standard etika dan audit bebas untuk elak penyalahgunaan (contohnya data digunakan untuk menafikan kenaikan pangkat semata-mata)
3. AI perlu melengkapi, bukan menggantikan, manusia
Dalam kes VA (Veterans Affairs) di Amerika, AI digunakan untuk:
- Algoritma ramalan risiko untuk veteran berisiko bunuh diri
- Latihan AI di belakang tabir untuk petugas talian krisis veteran
Konsep yang sama patut diterapkan di Malaysia: AI sebagai "co-pilot" kepada pegawai psikologi, kaunselor, ketua unit dan medical officer, bukan pengganti.
Rangka kerja praktikal: bagaimana kerajaan Malaysia boleh mula
Supaya artikel ini tak berhenti pada peringkat inspirasi, mari bincang langkah praktikal. Kalau saya diminta cadang pelan awal "AI kesihatan mental sektor awam" untuk Malaysia, saya akan pecahkan kepada empat fasa.
Fasa 1: Masalah & data – jangan terus lompat ke teknologi
Sebelum fikir vendor dan model, kerajaan perlu jelas:
-
Siapa kumpulan sasaran utama?
- Anggota ATM dan veteran?
- PDRM, Bomba, APM?
- Frontliners kesihatan awam?
-
Apakah indikator risiko yang realistik di Malaysia?
- Kehadiran tak konsisten
- Rekod kecederaan atau trauma operasi
- Permohonan cuti mengejut yang kerap
- Laporan rakan sekerja (dalam bentuk yang terstruktur dan dilindungi)
-
Data apa yang sudah ada dan di mana ia berada?
- Sistem HR kerajaan (HRMIS dan sistem dalaman kementerian)
- Rekod perubatan (termasuk MySejahtera / EMR KKM di masa depan)
- Sistem pengurusan operasi pasukan keselamatan
Tanpa pemetaan masalah dan data yang jujur, projek AI mudah jadi "proof-of-concept" yang cantik atas kertas, tapi tak jejak realiti operasi.
Fasa 2: Projek perintis AI skala kecil tapi fokus
Mengambil inspirasi daripada SAVES, kerajaan boleh memulakan pilot di satu cabang perkhidmatan dahulu, contohnya:
- Perintis di satu formasi ATM atau satu kontinjen PDRM
- Pembangunan model ramalan risiko berisiko rendah (lebih kepada flag awal, bukan label keras)
Ciri projek perintis yang sihat:
- Co-design dengan pakar psikologi, pegawai atasan dan anggota sendiri, bukan hanya vendor IT
- Mula dengan set data terhad dan indikator yang mudah difahami
- Tetapkan sasaran yang boleh diukur, contohnya:
- Masa tindak balas kepada anggota berisiko tinggi berkurang X%
- Kadar rujukan awal kepada kaunselor meningkat Y%
Fasa 3: Etika, privasi dan komunikasi – kalau gagal di sini, projek akan ditolak anggota
Ini bahagian yang paling ramai pembangun sistem kerajaan terlepas pandang.
Untuk projek seperti ini berjaya, kerajaan mesti:
- Jelas bahawa data AI kesihatan mental tak akan digunakan untuk tindakan disiplin langsung
- Bentuk piagam privasi yang menyatakan:
- Jenis data yang dikumpul
- Tujuan khusus (pencegahan dan intervensi, bukan hukuman)
- Siapa yang boleh akses output AI
- Bagaimana anggota boleh dapatkan penjelasan jika mereka bimbang
- Wujudkan "human in the loop" yang nyata:
- Tiada keputusan automatik tanpa penilaian pegawai manusia
- Keputusan akhir kekal di tangan profesional kesihatan / pegawai psikologi
Dan yang paling penting: komunikasi dalaman. Kalau anggota rasa mereka sedang diawasi untuk dicari kesalahan, bukannya dilindungi, mereka akan menolak sistem walaupun niat asal baik.
Fasa 4: Integrasi dalam agenda MyDIGITAL & AI kebangsaan
Supaya projek sebegini bukan one-off, ia perlu:
- Disejajarkan dengan pelan pelaksanaan MyDIGITAL dan apa-apa dasar AI kebangsaan yang sedang dirangka
- Diberi kedudukan sebagai salah satu flagship use case "AI for Public Good"
- Dikaitkan dengan:
- Pelaburan infrastruktur data kerajaan
- Pelan latihan dan peningkatan kemahiran (upskilling) penjawat awam dalam analitik & AI
- Pusat kecemerlangan AI sektor awam yang mungkin diwujudkan
Apabila AI kesihatan mental dimasukkan ke dalam naratif besar "AI in Government & Public Sector", ia lebih mudah dilindungi dari segi bajet dan perhatian pembuat dasar.
Cabaran dan risiko yang kita tak boleh sapu ke tepi
Saya sendiri sceptical bila nampak projek AI yang menyentuh isu mental health jika perkara ini diabaikan:
-
Risiko false positive & false negative
- Sistem menandakan orang sihat sebagai berisiko tinggi (mencetuskan tekanan baru)
- Sistem gagal kesan individu yang benar-benar perlukan bantuan
-
Bias dalam data
Jika budaya organisasi cenderung menutup laporan tekanan mental, data sejarah yang digunakan untuk melatih model akan berat sebelah. Model akan mewarisi buta ini. -
Over-reliance pada skor AI
Anggota yang tak di-flag mungkin diandaikan "ok" walaupun mereka pandai menyembunyikan simptom.
Cara sihat untuk berhadapan isu ini:
- Anggap model sebagai alat sokongan, bukan "penentu mutlak"
- Audit model secara berkala, termasuk oleh pihak ketiga yang bebas
- Libatkan pakar psikiatri, psikologi, pegawai agama, dan wakil anggota dalam menilai keberkesanan sistem
Jika Malaysia mahu mengikut jejak DOD dan VA, bahagian ini tak boleh diketepikan. Teknologi boleh dibina dengan cepat; kepercayaan memakan masa.
Masa depan: AI sebagai infrastruktur kebajikan dalam sektor awam
Kalau kita lihat hala tuju Amerika melalui NDAA dan projek VA, mesejnya jelas:
"AI adalah sebahagian daripada infrastruktur negara – bukan hanya untuk pertahanan keras (hard security), tetapi juga untuk kebajikan dan kesihatan mental mereka yang mempertahankan negara."
Untuk Malaysia, peluangnya luas:
- Menjadikan AI kesihatan mental sebagai salah satu projek rintis utama dalam agenda AI sektor awam
- Menggunakan kekuatan sedia ada – seperti pengalaman MySejahtera dan inisiatif data kerajaan – untuk membina ekosistem data yang selamat dan beretika
- Menunjukkan bahawa digital transformation kerajaan bukan hanya tentang sistem lebih laju, tetapi manusia yang lebih terlindung dan disokong
Saya rasa ini masa yang sesuai untuk:
- MINDEF, KKM, MAMPU dan Unit Perancang Ekonomi menilai sama ada sudah tiba masa untuk satu "Pelan AI Kebajikan & Kesihatan Mental Penjawat Awam"
- Universiti dan pemain industri AI tempatan menawarkan penyelesaian berfokus risiko bunuh diri, burnout dan trauma operasi dalam sektor kerajaan
Jika DOD boleh jadikan AI kesihatan mental sebagai keutamaan dalam undang-undang pertahanan, tak ada sebab Malaysia tak boleh lakukan versi yang sesuai dengan konteks kita sendiri.
Soalnya sekarang: adakah kita berani mengiktiraf kesihatan mental sebagai sebahagian teras keselamatan dan transformasi digital negara, dan bukan isu sampingan?