AI dalam pendidikan perlukan kepimpinan, kolaborasi dan tadbir urus data. Belajar daripada CNI tentang etika, perpustakaan, keselamatan dan standard.

AI dalam Pendidikan: Apa Yang Perlu Belajar dari CNI
Pada 2024, universiti dan kolej di seluruh dunia berdepan satu realiti yang tak boleh dielak: AI generatif masuk ke bilik kuliah lebih pantas daripada sebarang dasar sempat ditulis. Pelajar guna alat AI untuk merangka esei, pensyarah cuba menilai dengan adil, unit IT risau soal data, dan perpustakaan pula diminta “jadi rujukan etika”. Dalam keadaan serba pantas ini, ramai organisasi tersilap langkah—bukan sebab mereka tak bijak, tapi sebab mereka bergerak seorang-seorang.
Di sinilah wawancara ringkas dengan Kate Zwaard, Pengarah Eksekutif baharu Coalition for Networked Information (CNI), jadi menarik untuk siri “AI dalam Pendidikan dan EdTech”. Nada beliau jelas: masa depan ekosistem maklumat digital—termasuk AI dalam pendidikan tinggi—akan ditentukan oleh kepimpinan yang mengutamakan komuniti, standard, dan nilai manusia.
“Network bukan sekadar komputer—ia juga manusia.” Semangat ini sangat dekat dengan cabaran EdTech hari ini: AI bukan hanya model; ia rangka kerja tadbir urus, data, keselamatan, dan kepercayaan.
Apa yang kepimpinan CNI ajar tentang AI dalam pendidikan tinggi
Jawapan ringkasnya: kita perlukan kepimpinan yang melihat AI sebagai isu ekosistem, bukan projek alat. Dalam wawancara itu, Kate menggambarkan CNI sebagai “komuniti yang membesarkan” beliau—satu tempat profesional berkongsi kejayaan dan kegagalan.
Dalam konteks kampus, pendekatan ini mengubah cara kita melaksanakan AI:
- Daripada “beli alat” kepada “bina amalan”: AI bukan sekadar lesen perisian. Ia melibatkan dasar penggunaan, latihan pensyarah, proses semakan risiko, dan mekanisme audit.
- Daripada silo kepada gabungan fungsi: Perpustakaan, IT, akademik, penyelidikan, dan hal ehwal pelajar perlu duduk semeja. AI menyentuh semua.
- Daripada fokus produktiviti semata-mata kepada nilai: Kecekapan penting, tetapi kampus juga bertanggungjawab tentang integriti akademik, akses saksama, dan privasi.
Saya cenderung percaya ini punca utama banyak inisiatif AI “tersekat” selepas fasa percubaan: tiada pemilik bersama. Bila alat jadi isu “unit tertentu”, perubahan budaya tak berlaku.
Prinsip praktikal untuk pemimpin kampus
Kalau anda di pihak pentadbiran, dekan, ketua jabatan, atau peneraju EdTech, ini tiga prinsip yang boleh terus digunakan:
- Tetapkan objektif pembelajaran dahulu, AI kemudian: contoh, “meningkatkan maklum balas formatif dalam 48 jam” lebih jelas daripada “guna chatbot untuk kelas”.
- Wujudkan jawatankuasa rentas fungsi (bukan sekadar “task force” sementara): mandatnya termasuk polisi, penilaian vendor, rubrik etika, dan pelan keselamatan.
- Bina budaya belajar bersama: dokumentasikan ujian kecil (pilot), apa yang menjadi, apa yang tak menjadi—dan kongsi secara terbuka dalam institusi.
Perpustakaan sebagai suara manusia dalam perbualan AI
Jawapan yang paling kuat daripada Kate ialah keyakinan beliau bahawa perpustakaan patut jadi suara “human-centered” dan beretika dalam AI—bukan defensif, bukan anti-perubahan.
Di banyak IPT, perpustakaan sudah lama mahir mengurus isu yang sekarang “meletup” dalam AI:
- hak cipta dan pelesenan
- integriti maklumat dan literasi media
- pemeliharaan (preservation) dan akses jangka panjang
- metadata, standard, kebolehkesanan (traceability)
Dalam AI pendidikan, kebolehan ini sangat bernilai. Contoh yang kerap berlaku: universiti mahu guna AI untuk personalized learning, tetapi tak jelas data apa yang digunakan, siapa pemilik data, dan bagaimana model memberi jawapan.
Contoh penggunaan: AI tutor + perpustakaan sebagai “lapisan kepercayaan”
Bayangkan sebuah kursus tahun pertama dengan 800 pelajar. Pihak fakulti mahu AI tutor untuk:
- terangkan konsep asas mengikut silibus
- beri latihan kuiz
- cadang bacaan tambahan
Tanpa reka bentuk yang baik, AI tutor akan:
- “berhalusinasi” rujukan
- memberi jawapan tak selari dengan polisi kursus
- memetik sumber tak sah atau berbayar tanpa kebenaran
Perpustakaan boleh membantu dengan pendekatan yang lebih kemas:
- membina senarai sumber sah (terbuka/berlesen) yang boleh dipautkan
- menetapkan gaya sitasi automatik
- menambah guardrails supaya AI mengutamakan bahan kursus dan koleksi yang dibenarkan
- mengajar pelajar cara semak jawapan AI (AI literacy)
Satu ayat yang patut jadi mantra di kampus: AI yang dipercayai perlukan kurasi maklumat yang dipercayai.
Cabaran “centralization”: bila AI jadi terlalu tertumpu
Kate menyebut “centralization” sebagai topik besar—dan ia memang realiti dalam AI kampus. Banyak institusi tergoda untuk memusatkan semuanya:
- satu platform AI untuk semua fakulti
- satu polisi yang sama untuk semua konteks
- satu vendor “end-to-end”
Masalahnya, pembelajaran itu pelbagai. AI untuk kursus undang-undang tidak sama dengan AI untuk kejuruteraan, dan tidak sama dengan AI untuk kesihatan.
Jawapan yang lebih matang ialah standard bersama, pelaksanaan fleksibel:
- Standard bersama: privasi, keselamatan, audit, integrasi identiti (SSO), akses saksama, dan dokumentasi.
- Fleksibiliti pelaksanaan: fakulti boleh pilih alat yang sesuai asalkan ikut standard.
“Platform tunggal” vs “ekosistem terkawal”
Saya biasanya cadangkan dua lapisan:
- Lapisan institusi (wajib): polisi data, log akses, pengurusan identiti, garis panduan integriti akademik, dan minimum keselamatan.
- Lapisan inovasi (terkawal): sandbox untuk pensyarah/penyelidik mencuba alat baharu dengan dataset sintetik atau data minimum.
Dengan cara ini, kampus tak jadi “hutan vendor”, tetapi juga tak membunuh inovasi.
Keselamatan siber: isu lama, risiko baharu bila AI masuk
Kate menyifatkan keselamatan siber sebagai isu berulang (perennial). Dalam AI pendidikan, risiko makin pelbagai:
- kebocoran data pelajar melalui prompt atau log
- serangan prompt injection pada chatbot kursus
- pancingan data (phishing) yang lebih meyakinkan menggunakan AI
- model atau plugin pihak ketiga yang meminta keizinan akses berlebihan
Jika anda membina atau membeli solusi EdTech berasaskan AI, saya pegang satu pandangan tegas: keselamatan bukan “semakan terakhir”; ia sebahagian reka bentuk.
Senarai semak minimum untuk AI dalam LMS/EdTech
Berikut senarai ringkas yang boleh digunakan oleh unit IT/EdTech ketika menilai alat AI:
- Data minimization: adakah alat boleh berfungsi dengan data paling minimum?
- Kawalan log: siapa boleh akses log prompt dan respons? berapa lama disimpan?
- Pengasingan akaun: akaun pensyarah vs pelajar, dan peranan (role-based access).
- Mod “no training”: data institusi tidak digunakan untuk melatih model vendor.
- Ujian keselamatan berkala: termasuk ujian terhadap prompt injection.
Bila ini dibuat awal, anda mengurangkan risiko “tutup projek” selepas insiden.
Kolaborasi sebagai strategi: mengapa komuniti lebih laju daripada institusi
CNI wujud sebagai “tempat berkumpul” pemimpin teknologi pendidikan tinggi, perpustakaan, penerbit digital, dan penyelidikan. Mesej Kate: koalisi membolehkan kita buat lebih daripada bergerak sendiri.
Dalam AI pendidikan, kolaborasi memberi pulangan besar dalam tiga bidang:
1) Standard dan amalan bersama
Bila banyak kampus menyelaraskan amalan (contoh rubrik penggunaan AI dalam tugasan), kos eksperimen menurun. Anda tak perlu cipta semua dari kosong.
2) Pembelajaran daripada kegagalan
Ini yang jarang orang kongsi. Namun “apa yang tak jadi” sangat berguna—contohnya:
- chatbot yang menjawab dengan yakin tetapi salah
- pensyarah yang menolak alat sebab tiada latihan
- pelajar yang hilang motivasi bila AI terlalu banyak “buatkan kerja”
Komuniti yang sihat membenarkan kegagalan dibincang tanpa memalukan pihak tertentu.
3) Ekosistem data dan kandungan
AI dalam pendidikan bergantung pada kandungan yang sah, tersusun, dan boleh diakses. Bila perpustakaan, penerbit, dan penyelidik bekerjasama, kita boleh:
- membina repositori bahan pembelajaran
- menyusun metadata yang seragam
- mewujudkan garis panduan penggunaan kandungan untuk AI
Ini bukan glamour, tapi inilah “enjin” kepada pembelajaran diperibadikan yang selamat.
Soalan lazim (yang biasanya timbul bila AI mula masuk kampus)
Patutkah universiti benarkan AI generatif untuk tugasan?
Ya, tetapi dengan reka bentuk penilaian yang jelas. Tugasan perlu membezakan antara:
- idea pelajar
- bantuan AI (contoh: draf, semakan bahasa)
- sumber rujukan yang disahkan
Pendekatan terbaik biasanya bukan “ban” menyeluruh. Ia polisi berperingkat mengikut kursus.
Siapa patut menerajui strategi AI: IT, akademik, atau perpustakaan?
Jawapan praktikal: tiga-tiga. IT mengurus risiko teknikal, akademik memastikan nilai pedagogi, perpustakaan menjaga integriti maklumat dan akses. Kepimpinan perlu memaksa kerjasama ini berlaku.
Apa langkah paling cepat untuk mula dengan selamat?
Mulakan dengan pilot kecil 8–12 minggu pada 1–2 kursus, dengan kriteria kejayaan yang boleh diukur (contoh: masa maklum balas, kadar lulus kuiz formatif, atau pengurangan tiket sokongan). Kemudian barulah skala.
Langkah seterusnya untuk institusi dan pembina EdTech
Kalau anda mengurus transformasi digital, wawancara Kate Zwaard mengingatkan satu perkara: AI dalam pendidikan akan stabil bila kita bina ekosistem—bukan bila kita cari satu alat ajaib.
Bagi institusi:
- bentuk tadbir urus AI rentas fungsi (akademik–IT–perpustakaan)
- tetapkan standard keselamatan dan privasi yang konsisten
- jadikan literasi AI sebagai kemahiran teras pelajar dan pensyarah
Bagi pembina EdTech:
- reka produk yang mudah diaudit (log yang jelas, kawalan data)
- sediakan mod institusi (peranan pengguna, tetapan privasi, integrasi LMS)
- bina bersama perpustakaan dan tenaga pengajar, bukan selepas produk siap
Kita berada di hujung 2025, dan tekanan untuk “cepat guna AI” memang kuat. Tetapi kalau ada satu pegangan yang saya setuju dengan semangat CNI: bergerak laju itu bagus—bergerak bersama itu jauh lebih selamat.
Anda mahu kampus anda jadi pengguna AI yang yakin, atau sekadar pengguna AI yang terpaksa?