Dasar & AI di IPT: Apa Yang Pemimpin EdTech Perlu Tahu

AI dalam Pendidikan dan EdTech••By 3L3C

Fahami bagaimana dasar, keselamatan siber dan peraturan AI mempengaruhi strategi EdTech di IPT. Panduan praktikal untuk bersedia menghadapi 2026.

AI dalam PendidikanEdTechDasar PendidikanKeselamatan SiberTadbir Urus DataPengurusan Risiko
Share:

Featured image for Dasar & AI di IPT: Apa Yang Pemimpin EdTech Perlu Tahu

Dasar & AI di IPT: Apa Yang Pemimpin EdTech Perlu Tahu

Pada Oktober 2025, satu rakaman langsung di Persidangan Tahunan EDUCAUSE di Nashville mendedahkan realiti yang ramai pemimpin teknologi di institusi pengajian tinggi (IPT) jarang sebut kuat-kuat: dasar kerajaan boleh mempercepatkan inovasi EdTech—atau melambatkan semuanya dalam semalaman. Bila kerajaan shutdown, bila peraturan siber tertangguh, bila cadangan “kompak universiti” muncul dengan syarat kewangan yang ketat, pasukan IT dan akademik bukan sekadar baca berita. Mereka yang kena buat keputusan.

Untuk siri “AI dalam Pendidikan dan EdTech”, topik ini sangat dekat dengan operasi harian: anda boleh ada pelan AI paling kemas, vendor terbaik, dan pasukan data yang hebat—tetapi tanpa kefahaman dasar (policy), implementasi mudah tersangkut pada pematuhan, risiko privasi, kontrak, atau bajet yang tiba-tiba mengetat.

Saya ambil semangat perbincangan tersebut—dengan fokus pada perkara yang relevan untuk pemimpin EdTech, CIO, pengurus inovasi pembelajaran, dan pentadbir IPT—dan kembangkan kepada panduan praktikal: apa yang perlu dipantau, kenapa ia penting, dan bagaimana anda boleh bergerak walaupun polisi berubah-ubah.

Kenapa dasar persekutuan menentukan halaju AI & EdTech

Jawapan terus: Dasar persekutuan (dan dasar negeri) menentukan siapa dapat dana, apa yang wajib dilapor, standard keselamatan yang perlu dipatuhi, dan bagaimana AI boleh digunakan secara sah serta beretika.

Perbincangan di EDUCAUSE menekankan beberapa “tuil” dasar yang paling memberi kesan kepada teknologi kampus:

  • Peruntukan (appropriations) & dana penyelidikan: bila proses pentadbiran tergendala, aliran dana juga tergendala.
  • Peraturan pelaporan insiden siber: siapa perlu lapor, bila perlu lapor, format apa.
  • Aksesibiliti digital: tarikh kuat kuasa dan kos pematuhan untuk web/aplikasi.
  • Kontrak pertahanan & piawaian keselamatan: keperluan pematuhan yang boleh memakan masa.
  • Landskap AI yang berpecah antara peringkat persekutuan dan negeri.

Bagi banyak IPT, AI bukan lagi “eksperimen”. Dalam perbincangan itu, pemimpin EDUCAUSE berkongsi dapatan kajian dalaman 2025 yang menarik:

  • 77% responden menyatakan institusi mereka mempunyai strategi AI.
  • 75% menyatakan polisi/panduan institusi sudah dipengaruhi AI.
  • 65% sedang menyedia atau merancang penyediaan data agar “AI-ready”.

Maksudnya jelas: AI sudah masuk ke fasa pengurusan risiko, tadbir urus, dan pematuhan—bukan sekadar bengkel “prompt”.

Bila kerajaan shutdown: kesan senyap pada kampus digital

Jawapan terus: Shutdown kerajaan memberi kesan paling cepat pada pemprosesan geran penyelidikan, dan kesannya merebak ke infrastruktur data, projek AI, dan perancangan EdTech.

Dalam rakaman tersebut, isu utama yang dibangkitkan ialah: bila tiada staf agensi untuk memproses “drawdown” geran, universiti boleh tersekat aliran tunai projek penyelidikan. Dalam ekosistem IPT, penyelidikan bukan “unit berasingan”—ia menyokong:

  • pelayan (server) dan storan data,
  • perisian analitik dan lesen,
  • pembiayaan pembantu penyelidik,
  • projek AI (contohnya analisis pembelajaran, pemodelan ramalan dropout, atau analitik prestasi).

Apa yang pemimpin EdTech boleh buat (walaupun shutdown di luar kawalan)

Saya tegas di sini: jangan tunggu keadaan stabil untuk bina ketahanan.

  1. Pisahkan “AI kritikal operasi” vs “AI eksperimen”
    Tentukan sistem yang mesti kekal (contoh: LMS, proctoring, identiti digital) dan projek yang boleh ditangguh.

  2. Sediakan senario bajet 90 hari
    Bukan bajet setahun. 90 hari. Senaraikan komitmen kontrak, bil awan, dan kos keselamatan minimum.

  3. Bina pelan kesinambungan vendor
    Kalau vendor analitik pembelajaran anda bergantung pada pembiayaan projek, apa pelan keluar (exit plan) dan pemilikan data?

“Kompak universiti”: bila syarat kewangan jadi risiko inovasi

Jawapan terus: Cadangan “kompak” (komitmen universiti sebagai pertukaran pembiayaan) menunjukkan trend penting: pembiayaan boleh diikat pada syarat yang menjejaskan model operasi, termasuk pelajar antarabangsa dan yuran pengajian.

Dalam perbincangan, beberapa syarat yang disebut (dalam konteks AS) sangat berguna sebagai pengajaran umum untuk mana-mana negara: bila dana datang bersama syarat, AI dan EdTech turut terkesan kerana ia bergantung pada hasil (revenue) dan kestabilan operasi.

Antara syarat yang dibincang:

  • Pembekuan yuran 5 tahun (tekanan terus pada hasil institusi).
  • Pemulangan yuran bagi pelajar yang tidak tamat semester pertama.
  • Had pelajar antarabangsa (contohnya had peratusan keseluruhan dan had mengikut negara).

Walaupun konteksnya AS, mesejnya universal: bila hasil institusi tertekan, projek AI yang “nice-to-have” biasanya dipotong dulu—kecuali ia jelas menyelesaikan masalah operasi (contoh: pengurangan dropout, automasi proses, pencegahan penipuan akademik) dengan pulangan yang boleh diukur.

Cara “menginsuranskan” projek AI daripada ketidaktentuan dasar

  • Pilih use case AI yang dekat dengan misi (bukan semata-mata trend).
    Saya setuju dengan pandangan yang dikongsikan: kalau kampus fokus kepada kelestarian, bina AI yang kurangkan pembaziran makanan, tenaga, atau logistik.

  • Ukuran kejayaan yang mudah difahami
    Contoh ukuran yang mudah dibawa ke mesyuarat senat/majlis: “masa proses permohonan turun 30%”, “kadar gagal kursus teras turun 8%”, “aduan pelajar tentang akses bahan meningkat/menurun”.

  • Elakkan lock-in data
    Pastikan kontrak menyatakan hak eksport data, format, dan tempoh pemadaman.

Polisi keselamatan siber 2026: tiga perkara yang patut anda pantau

Jawapan terus: Pada 2026, tiga tema akan mendominasi risiko pematuhan teknologi kampus: pelaporan insiden siber, aksesibiliti digital, dan standard keselamatan kontrak.

Perbincangan EDUCAUSE menyebut beberapa horizon peraturan yang sangat praktikal.

1) Pelaporan insiden siber (CIRCIA) dan status IPT sebagai “infrastruktur kritikal”

Isu besar bukan sekadar “kena lapor atau tidak”, tetapi siapa yang diklasifikasikan sebagai entiti kritikal. Bila klasifikasi berubah, beban pematuhan berubah:

  • garis masa pelaporan menjadi ketat,
  • keperluan bukti (forensik) meningkat,
  • proses koordinasi dengan pihak berkuasa memerlukan SOP baharu.

Buat masa ini, ketidakpastian masih wujud kerana kelewatan penerbitan peraturan.

Tindakan yang masuk akal sekarang:

  • Kemaskan proses respons insiden (IR) dengan “minimum viable compliance”: log, triage, eskalasi, template komunikasi.
  • Latih pasukan bukan-IT (HEP, akademik, komunikasi korporat) kerana kebocoran data pelajar jarang jadi isu IT semata-mata.

2) Aksesibiliti web & aplikasi (tarikh kuat kuasa 24/04/2026)

Jika anda mengurus LMS, portal pelajar, atau aplikasi mudah alih kampus, ini tak boleh ditunda ke saat akhir. Pematuhan aksesibiliti bukan kerja “touch-up UI”; ia melibatkan:

  • kandungan kursus (PDF, video, kuiz),
  • integrasi pihak ketiga,
  • proses perolehan (procurement) dan audit.

Langkah praktikal 60 hari: buat inventori sistem pembelajaran digital dan senaraikan mana yang paling ramai pelajar guna. Mulakan audit di situ.

3) Keperluan keselamatan untuk kontrak (CMMC)

Bagi universiti yang terlibat dengan kontrak berkaitan pertahanan/penyelidikan sensitif, keperluan matang keselamatan (maturity model) boleh jadi “peraturan tidak rasmi” yang memaksa peningkatan:

  • kawalan akses,
  • pengurusan konfigurasi,
  • pemantauan.

Kesan pada AI jelas: jika data latihan atau pipeline berada dalam persekitaran yang perlu disahkan, struktur data dan infrastruktur perlu dirombak, bukan sekadar tambah plugin AI.

AI: bila kerajaan tak mengawal, negeri akan mengawal

Jawapan terus: Bila persekutuan memilih pendekatan deregulasi AI, undang-undang negeri akan menjadi patchwork, dan itu menyukarkan IPT yang beroperasi merentas wilayah.

Dalam perbincangan, disebut bahawa pada 2025:

  • AI/legislasi berkaitan AI diperkenalkan di 50 negeri.
  • Sekitar 100 rang undang-undang telah menjadi undang-undang di 38 negeri.

Untuk pemimpin EdTech, cabaran patchwork ini biasanya muncul dalam tiga tempat:

  1. Privasi data pelajar (apa boleh dikumpul, untuk tujuan apa)
  2. Ketelusan penggunaan AI (perlu maklumkan pengguna atau tidak)
  3. Penggunaan AI oleh pelajar bawah umur (terutama program pra-universiti, asasi, outreach)

Pendekatan yang saya percaya paling selamat: tadbir urus AI berasaskan prinsip

Kalau peraturan berubah-ubah, institusi perlukan kompas dalaman. Bukan dokumen panjang yang tak dibaca—tetapi prinsip yang memandu keputusan.

Cadangan rangka kerja ringkas (boleh mula minggu ini):

  • Tujuan jelas: AI digunakan untuk apa, dan apa yang dilarang.
  • Minimisasi data: ambil data minimum yang perlu.
  • Ketelusan: pengguna tahu bila AI digunakan, dan bagaimana keputusan dicadangkan.
  • Audit bias: semak keputusan model untuk kumpulan pelajar berbeza.
  • Keselamatan by design: akses, penyulitan, dan logging sejak awal.

Ayat yang mudah dibawa ke mesyuarat pengurusan: “AI tanpa tadbir urus ialah liabiliti yang sedang menunggu masa.”

Apa maksud semua ini untuk strategi AI pembelajaran diperibadikan

Jawapan terus: Pembelajaran diperibadikan, analitik prestasi pelajar, dan bilik darjah maya hanya boleh diskalakan jika institusi mengurus tiga lapisan serentak: data, keselamatan, dan pematuhan.

Dalam siri “AI dalam Pendidikan dan EdTech”, kita selalu bercakap tentang potensi:

  • tutor AI,
  • cadangan kandungan adaptif,
  • ramalan risiko gagal,
  • analitik engagement dalam LMS.

Tetapi bila dasar semakin “memegang stereng”, strategi yang berkesan biasanya begini:

  1. Mulakan dengan data yang bersih dan sah (data governance).
    Jika 65% institusi sedang “AI-ready data”, itu petunjuk: tanpa data yang terurus, AI akan menghasilkan keputusan yang sukar dipertahankan.

  2. Rancang pematuhan dari hari pertama (bukan selepas pilot berjaya).
    Aksesibiliti, privasi, retention data—masukkan dalam kriteria projek.

  3. Bina naratif nilai yang boleh diukur
    Bila pembiayaan terancam atau syarat baru muncul, projek yang ada metrik jelas lebih sukar dipotong.

Langkah seterusnya (untuk pemimpin IPT & EdTech)

Jika anda sedang merancang AI untuk pembelajaran diperibadikan atau platform EdTech baharu pada 2026, saya cadangkan tiga tindakan yang “paling berbaloi”:

  1. Wujudkan jawatankuasa tadbir urus AI kecil tetapi berkuasa
    5–7 orang sudah cukup: akademik, IT, keselamatan siber, undang-undang/pematuhan, hal ehwal pelajar, dan wakil pengajaran & pembelajaran.

  2. Buat “peta risiko” untuk setiap use case AI
    Nyatakan: data yang digunakan, vendor terlibat, risiko bias, risiko privasi, keperluan aksesibiliti, dan pelan respons insiden.

  3. Audit vendor EdTech anda dengan lensa polisi
    Minta jawapan jelas tentang: lokasi data, logging, incident notification, pemadaman data, dan ketelusan model.

Satu perkara yang saya belajar daripada komuniti teknologi pendidikan: bila keadaan kelam-kabut, kampus yang bergerak paling baik bukan yang paling laju—tetapi yang paling jelas tentang prinsip dan proses.

Kalau dasar AI terus bercapah pada 2026, adakah institusi anda cukup bersedia untuk mengembangkan EdTech dengan selamat, patuh, dan berpaksikan pembelajaran pelajar—tanpa menunggu arahan yang mungkin tak akan datang tepat pada masanya?