AI di Kampus: Suara Pelajar & Pensyarah dalam Gelung

AI dalam Pendidikan dan EdTech••By 3L3C

Kajian kes AI di kampus: apa pelajar dan pensyarah benar-benar risau, apa yang berkesan, serta langkah praktikal untuk AI yang bertanggungjawab.

AI pendidikanEdTechAI generatifIntegriti akademikAksesibilitiUDLLiterasi AI
Share:

Featured image for AI di Kampus: Suara Pelajar & Pensyarah dalam Gelung

AI di Kampus: Suara Pelajar & Pensyarah dalam Gelung

Pada 2025, kebanyakan kampus bukan lagi bertanya sama ada AI patut digunakan dalam pengajaran—isu sebenar ialah siapa yang memegang stereng, dan bagaimana kita pastikan AI membantu tanpa merosakkan kepercayaan akademik. Itulah inti yang paling “kena” daripada perbualan langsung di persidangan EDUCAUSE 2025: satu meja, dua perspektif, dan banyak realiti yang kita juga sedang lalui di rantau kita.

Dari sisi pelajar, AI sering jadi tab “yang kita sorok” di skrin kerana takut dilabel menipu. Dari sisi pensyarah pula, responsnya terbahagi dua: ada yang terus menerima, ada yang menolak mentah-mentah—dan polarisasi ini memecahkan komuniti kampus lebih cepat daripada kita sangka. Saya suka satu frasa yang berulang dalam perbualan itu: “human in the loop” — manusia kekal sebagai penentu, AI cuma pembantu.

Artikel ini membingkai episod tersebut sebagai kajian kes untuk siri “AI dalam Pendidikan dan EdTech”: apa yang berfungsi, apa yang berisiko, dan apa langkah praktikal yang institusi boleh buat untuk dapatkan manfaat AI (pembelajaran diperibadikan, aksesibiliti, produktiviti pensyarah) tanpa menambah kebimbangan pelajar.

1) Realiti di bilik kuliah: AI bantu, tapi ramai takut

Jawapan paling terus terang datang daripada pelajar sendiri: AI memang kuat, tetapi reputasinya sebagai “alat menipu” sudah melekat. Akibatnya, pelajar yang sebenarnya guna AI untuk belajar (bina pelan ulang kaji, kuiz kendiri, persediaan temu duga) tetap rasa serba salah.

Ini penting kerana dalam ekosistem EdTech, persepsi boleh jadi penghalang lebih besar daripada teknologi. Bila pelajar fikir “AI = salah”, mereka akan:

  • Elak bertanya soalan (takut disalah tafsir)
  • Guna AI secara senyap (tiada bimbingan etika)
  • Ambil jalan pintas (lebih mudah menipu bila tiada polisi yang jelas)

Satu mesej yang jelas: bila kampus tiada bahasa yang konsisten tentang penggunaan AI, pelajar akan cipta “peraturan sendiri” — dan itu biasanya bukan peraturan terbaik.

Apa yang patut dibuat oleh institusi

Institusi yang mahu AI menyokong pembelajaran diperibadikan perlu mulakan dengan perkara asas: jelaskan apa yang dibenarkan, apa yang tidak, dan kenapa.

Contoh kerangka ringkas polisi kursus (yang saya pernah nampak berkesan):

  1. Boleh guna AI untuk: brainstorming, rangka esei, semak tatabahasa, latihan kuiz, ringkasan nota sendiri.
  2. Tak boleh guna AI untuk: serahkan hasil AI sebagai kerja asli tanpa suntingan/rujukan proses.
  3. Wajib nyatakan penggunaan AI: alat apa, untuk bahagian apa, dan bagaimana pelajar menyemak semula.

Kerangka ini tidak sempurna, tapi ia mengurangkan ketakutan dan membina budaya “guna dengan betul”, bukan “guna dalam gelap”.

2) Polarisasi pensyarah: masalah budaya, bukan sekadar teknologi

Pensyarah dalam perbualan tersebut menyebut situasi yang sangat biasa: pensyarah terbahagi dua—yang “embrace” dan yang “anti-AI”. Lebih membimbangkan, ada jabatan yang langsung tak mahu berbincang.

Ini bukan isu teknikal. Ini isu budaya kerja, beban tugas, dan maruah profesional.

  • Ada pensyarah bimbang “kalau aku tanya, nampak macam aku tak kompeten.”
  • Ada yang risau AI akan melemahkan integriti akademik.
  • Ada yang letih dengan perubahan alat yang “hari ini ada, esok versi lain”.

Polarisasi ini mahal. Bila komuniti akademik berpecah, inisiatif EdTech akan jadi program “silo” — berjalan di beberapa kursus sahaja, bukan perubahan sistemik.

Strategi yang terbukti membantu: komuniti amalan (community of practice)

Salah satu contoh yang muncul ialah pembentukan kumpulan inovator pensyarah yang bertemu secara berkala. Nilainya mudah:

  • Wujudkan ruang selamat untuk tanya soalan “basic” tanpa dihakimi
  • Kongsi amalan terbaik dan templat tugasan
  • Kurangkan kerja individu (tak semua orang perlu mula dari kosong)

Bagi kampus yang serius, ini boleh dibuat dalam bentuk:

  • AI Teaching Clinic bulanan (1 jam, fokus satu kes guna)
  • Bank aktiviti “AI & integriti akademik” mengikut fakulti
  • Sesi “bedah tugasan” (redesign tugasan supaya tahan terhadap penipuan)

3) “Human in the loop”: prinsip paling praktikal untuk AI di pendidikan

Istilah human in the loop dalam konteks pendidikan membawa maksud mudah:

AI boleh cadangkan, jana, dan percepat—tetapi manusia yang menyemak, memilih, dan bertanggungjawab.

Bila prinsip ini dijadikan standard, banyak konflik jadi lebih mudah diurus:

  • Pelajar tahu mereka masih perlu faham dan mempertahankan hasil kerja
  • Pensyarah jelas bahawa penilaian bukan “diserahkan” kepada mesin
  • Institusi lebih mudah menetapkan garis panduan data dan privasi

Contoh penggunaan yang “human in the loop” (dan selamat diamalkan)

  • Pelajar guna AI untuk bina rangka esei, kemudian menulis semula dengan hujah sendiri dan refleksi proses.
  • Pensyarah guna AI untuk menambah baik arahan tugasan (lebih jelas), tetapi objektif pembelajaran ditentukan pensyarah.
  • AI digunakan untuk menjana soalan latihan mengikut tahap kesukaran, namun jawapan dibincang dan disahkan.

Ayat pegangan yang saya suka: “AI patut menaikkan kualiti pemikiran, bukan menggantikan kerja berfikir.”

4) AI untuk aksesibiliti & UDL: manfaat yang jarang dipertikaikan

Bahagian paling bernilai dari sisi EdTech ialah perbincangan tentang Universal Design for Learning (UDL). UDL berasaskan idea bahawa pelajar belajar dengan cara berbeza, jadi bahan pembelajaran patut diberi dalam pelbagai bentuk.

AI generatif sangat sesuai untuk kerja-kerja “menukar format” yang selama ini memakan masa:

  • Semak dan kemaskan sari kata (caption)
  • Hasilkan transkrip
  • Tukar transkrip kepada nota ringkas
  • Sediakan versi PDF, dokumen, dan halaman LMS

Ini bukan sekadar “nice to have”. Untuk pelajar yang:

  • ada kekangan penglihatan/pendengaran,
  • menggunakan peranti berbeza,
  • belajar sambil bekerja,

pilihan format boleh menentukan sama ada mereka betul-betul faham atau sekadar “hadir”.

Cadangan praktikal untuk pensyarah (mula kecil)

Pilih satu kursus dan buat tiga perubahan ini selama satu semester:

  1. Setiap video mesti ada caption + transkrip (AI bantu semak, manusia sahkan).
  2. Setiap topik ada ringkasan 1 halaman: objektif, istilah penting, contoh.
  3. Pelajar boleh pilih cara respon: teks atau audio/video, dinilai berdasarkan rubrik kandungan.

Anda akan nampak kesan cepat: lebih ramai pelajar “masuk” perbincangan kerana halangan akses berkurang.

5) Penilaian, maklum balas, dan isu privasi: apa yang pelajar betul-betul peduli

Satu soalan audiens dalam sesi tersebut tepat kena pada saraf:

  • Kalau pensyarah guna AI untuk maklum balas, adakah pensyarah masih membaca tugasan?
  • Kalau kerja pelajar dimasukkan ke alat AI, adakah ia melatih model? Bagaimana dengan privasi?

Jawapan yang paling masuk akal: AI boleh bantu menulis maklum balas dengan lebih pantas dan lebih jelas, tetapi pensyarah mesti tetap menentukan gred dan menyemak kandungan.

Dari sudut pelajar, isu emosi juga besar: kalau mereka “curah hati” dalam tugasan, mereka mahu rasa dilihat.

Polisi mikro yang patut ada (dan boleh ditulis dalam silibus)

  • Pensyarah akan membaca semua tugasan; AI hanya membantu merangka maklum balas.
  • Tiada tugasan pelajar dimuat naik ke alat pihak ketiga tanpa kebenaran atau tanpa akaun institusi yang mematuhi garis panduan.
  • Pelajar boleh opt-out untuk tugasan tertentu (contohnya projek kreatif/penulisan peribadi).

Benda kecil seperti ayat ini membina kepercayaan—dan kepercayaan ialah “mata wang” utama dalam pembelajaran.

6) Persediaan kerja: AI tak menutup jurang, kalau pembelajaran masih ‘kejar markah’

Satu pemerhatian pelajar dalam sesi itu agak pedas tetapi jujur: ramai pelajar masih hidup dalam skrip lama—“dapat ijazah, dapat kerja”. Sedangkan pasaran kerja hari ini menilai kemahiran, portfolio, dan kebolehan menyelesaikan masalah.

AI boleh menguatkan dua arah:

  • Arah baik: pelajar gunakan AI untuk latihan temu duga, bina pelan belajar, faham konsep sukar, siapkan portfolio.
  • Arah buruk: pelajar guna AI untuk lulus tugasan tanpa menguasai asas—akhirnya “cantik di LMS, kosong di dunia sebenar”.

Cara paling berkesan untuk ‘AI-proof’ pembelajaran

Bagi program yang mahu benar-benar melahirkan graduan bersedia kerja, saya cadangkan tiga reka bentuk tugasan:

  1. Tugasan berasaskan proses: minta draf, log keputusan, refleksi.
  2. Tugasan berasaskan konteks tempatan: data/isu setempat lebih sukar “disiapkan” oleh AI tanpa pemahaman.
  3. Penilaian lisan ringkas (5–7 minit): pelajar pertahankan hujah dan tunjukkan pemahaman.

Ini bukan untuk menghukum AI. Ini untuk memastikan AI digunakan sebagai alat latihan, bukan jalan pintas.

Soalan lazim yang patut dijawab oleh kampus (dan jawapan ringkasnya)

“Perlu tak universiti ada polisi AI yang seragam?”

Untuk integriti dan kejelasan, ya—sekurang-kurangnya polisi minimum (privasi, pendedahan penggunaan, larangan tertentu). Tetapi ruang fleksibiliti kursus masih perlu.

“Macam mana nak ajar pelajar guna AI dengan bertanggungjawab?”

Jangan hanya beri amaran. Bina aktiviti wajib yang menunjukkan cara guna AI dengan betul (contoh: brainstorming + sunting + refleksi).

“AI sesuai untuk semua subjek?”

Sesuai sebagai sokongan, tetapi tahap dan cara penggunaan berbeza mengikut disiplin. Kursus kreatif, etika, dan kemanusiaan perlukan lebih banyak perbincangan tentang autoriti, bias, dan keaslian.

Langkah seterusnya untuk institusi EdTech: bina jambatan, bukan kem

Bila kita bercakap tentang AI dalam pendidikan pada hujung tahun 2025 ini, cabarannya bukan lagi “alat apa nak guna”. Cabarannya ialah bagaimana nak selaraskan manusia—pelajar, pensyarah, pentadbir—supaya AI benar-benar menyokong pembelajaran diperibadikan, aksesibiliti, dan kesediaan kerja.

Kalau saya perlu pilih satu tindakan yang paling berimpak untuk 90 hari akan datang, saya akan pilih ini: wujudkan ruang perbualan yang selamat dan konsisten—komuniti amalan untuk pensyarah, literasi AI untuk pelajar, dan polisi mikro yang jelas tentang privasi dan pendedahan penggunaan.

Satu soalan untuk kita bawa ke mesyuarat fakulti minggu ini: kalau AI kekal di kampus untuk 10 tahun lagi, adakah kita mahu pelajar belajar “cara mengelak”, atau “cara menguasai”?


Jika anda sedang merancang inisiatif AI (LMS, tutor pintar, analitik pembelajaran, atau dasar integriti akademik), saya boleh bantu rangka pelan pelaksanaan 6–12 bulan yang realistik: objektif, garis panduan, latihan, dan metrik kejayaan—tanpa membebankan pensyarah.

🇸🇬 AI di Kampus: Suara Pelajar & Pensyarah dalam Gelung - Singapore | 3L3C