AI dalam pendidikan boleh naikkan hasil, tapi melemahkan pemikiran kritis jika disalah guna. Ini panduan praktikal untuk guna GenAI secara bertanggungjawab.

AI Bantu Belajar, Tapi Melemahkan Fikiran? Panduan
Pada 21/12/2025, satu tabiat di kampus dan tempat kerja makin jadi kebiasaan: bila buntu sedikit, terus minta AI siapkan jawapan. Kerja siap cepat. Ayat nampak kemas. Markah kadang-kadang naik. Tapi ada satu harga yang jarang kita kira—otak kita makin “ringan” sebab terlalu kerap menumpang.
Dalam siri “AI dalam Pendidikan dan EdTech”, saya nak ambil satu pendirian yang jelas: AI patut jadi jurulatih pemikiran, bukan pengganti pemikiran. Kalau AI hanya digunakan untuk menghasilkan hasil akhir (final output), pelajar memang nampak produktif—tetapi proses belajar (yang membina daya fikir, memori, dan kreativiti) boleh terhakis perlahan-lahan.
Artikel refleksi terbaru dari seorang pelajar universiti (yang hidup tepat dalam era ledakan GenAI) mengangkat “paradoks” ini: bantuan AI boleh beri keputusan lebih baik, tetapi membuat pemikiran menjadi lebih lemah jika digunakan tanpa disiplin. Di bawah, kita akan pecahkan isu ini secara praktikal—apa yang sedang berlaku pada kognitif pelajar, kenapa EdTech perlu ambil serius, dan bagaimana institusi boleh bina penggunaan AI yang “mengajar”, bukan “memanjakan”.
Paradoks GenAI: hasil naik, pembelajaran turun
Jawapan ringkas: GenAI menaikkan prestasi jangka pendek, tetapi boleh menurunkan kualiti pembelajaran jangka panjang bila ia menggantikan usaha kognitif.
Di bilik kuliah, ramai pelajar sudah mula menganggap AI sebagai “laluan paling selamat”: ringkaskan bacaan, jana isi, susun hujah, malah buat rujukan. Masalahnya, bila AI melakukan bahagian yang sepatutnya melatih otak—menyusun idea, menilai bukti, dan mengingat fakta—pelajar mungkin menang pada output, tetapi kalah pada keupayaan.
Satu contoh yang kerap berlaku: pelajar minta AI cari kes mahkamah atau rujukan akademik, kemudian terus masukkan dalam tugasan. Isunya bukan sekadar etika. Isunya ketiadaan semakan realiti. Dalam artikel asal, ada kisah rakan yang menerima kes mahkamah “rekaan” (halusinasi AI) dan hampir diterbitkan jika editor tidak menyemak.
Ini bukan kejadian terpencil. Ia simptom kepada satu perkara: apabila kita terlalu percaya, kita berhenti memeriksa.
“Offloading” kognitif: bila otak serah tugas kepada alat
Konsep penting di sini ialah cognitive offloading—kita memindahkan kerja mental kepada alat luaran. Dulu kita buat dengan kalkulator atau GPS. Bezanya, GenAI bukan sekadar kira atau tunjuk arah; ia meniru proses berfikir: menulis, menghujah, merumus, mencadangkan.
Kajian 2025 dari penyelidik MIT (menggunakan EEG) membandingkan peserta menulis esei dengan ChatGPT, Google Search, atau tanpa alat. Dapatan mereka membimbangkan: kumpulan yang menggunakan ChatGPT menunjukkan konektiviti neural lebih rendah, dan ingatan terhadap apa yang ditulis juga merosot—peserta sukar mengingati kandungan sendiri sejurus selepas menulis.
Saya rasa ramai yang boleh “relate”. Bila AI tulis perenggan yang cantik, kita cenderung baca sekali lalu dan rasa siap. Tetapi otak tidak “berpeluh”. Sedangkan pembelajaran yang melekat biasanya datang daripada geseran: draf yang buruk, hujah yang bocor, semakan semula, dan cuba lagi.
Hutang kognitif: kesan terkumpul yang kita tak nampak
Kajian itu turut memperkenalkan idea cognitive debt—hutang kognitif yang terkumpul apabila kita kerap membiarkan AI mengambil alih fungsi seperti:
- membina hujah berstruktur
- mengingat maklumat (memori kerja)
- membuat keputusan langkah demi langkah
- menguji idea secara kritikal
Hutang ini bukan rasa “malas” semata-mata. Ia lebih mirip kepada otot yang jarang digunakan—lama-lama lemah. Bila tiba masa peperiksaan bertulis, temu duga kerja, atau situasi hidup yang memerlukan keputusan cepat tanpa bantuan AI, pelajar boleh rasa kosong.
Kenapa GenAI mudah melemahkan pemikiran kritis (terutama pelajar)
Jawapan ringkas: Rekabentuk chatbot, kelajuan jawapan, dan nada “mesra manusia” membuatkan pengguna mudah terlalu percaya—lalu kurang menilai.
Ada tiga mekanisme yang sering mendorong kebergantungan:
1) Kelajuan mematikan “mental unrest” yang mendorong belajar
Belajar yang sebenar biasanya bermula dengan ketidakselesaan: “aku tak faham”, “kenapa jadi macam ni?”, “mana buktinya?”. GenAI menawarkan jawapan pantas yang menutup ruang itu. Apabila refleksi dipintas, rasa ingin tahu pun tumpul.
2) Nada perbualan membuatkan AI terasa seperti “kawan yang betul”
Satu kajian 2024 dalam Frontiers menyatakan interaksi diperibadikan boleh mewujudkan over-trust dan mengurangkan refleksi kritikal. Bila AI berbual seperti manusia, ramai pengguna menilai jawapan berdasarkan “keyakinan nada”, bukan “ketepatan fakta”.
Ayat yang sedap dibaca mudah disalah anggap sebagai betul.
3) “Metacognitive laziness”: kita berhenti memeriksa proses berfikir sendiri
Kajian dari gabungan UT Austin, Georgia Tech, dan Hugging Face (2025) menunjukkan AI boleh meningkatkan prestasi jangka pendek, tetapi melemahkan pengekalan pengetahuan jangka panjang, pemikiran kritis, dan penyelesaian masalah. Penggunaan kerap mendorong metacognitive laziness—kita menerima maklumat secara pasif tanpa menyemak.
Dalam konteks pendidikan, ini paling merisaukan kerana kemahiran menyemak sumber dan menilai hujah belum matang pada ramai pelajar—terutama umur 17–25.
Peranan EdTech: bina AI yang mengajar, bukan menyiapkan
Jawapan ringkas: Platform EdTech perlu mengalih fokus daripada “jawapan siap” kepada “proses yang dipandu”, termasuk rubrik pemikiran, semakan sumber, dan jejak pembelajaran.
Banyak institusi sekarang berada pada dua ekstrem:
- Larangan total (kembali kepada peperiksaan kertas, esei on-demand)
- Benarkan tanpa struktur (asal siap, asal ada)
Saya cenderung memilih jalan tengah yang tegas: benarkan, tetapi wajibkan reka bentuk pembelajaran yang memaksa pemikiran. Di sinilah EdTech boleh jadi pemangkin.
AI sebagai “jurulatih”: tiga ciri yang patut ada dalam platform
Jika anda membangunkan atau memilih platform pembelajaran digital, cari (atau bina) ciri seperti ini:
- Mod Socratic / coaching: AI tidak terus beri jawapan akhir; ia beri soalan pendorong, minta pelajar jelaskan logik, dan menguji andaian.
- Jejak proses (process log): simpan versi draf, perubahan, dan alasan pembetulan—bukan sekadar hasil akhir.
- Semakan rujukan terbina: bila AI cadang fakta atau rujukan, sistem minta pengesahan (contoh: label “perlu disahkan” dan ruang bukti).
Prinsip yang saya pegang: AI patut meningkatkan standard pemikiran, bukan mengurangkan usaha.
Tugasan yang “kalis AI” bukan bermakna “anti AI”
Tugasan yang baik hari ini bukan tugasan yang mustahil untuk AI buat, tetapi tugasan yang memerlukan:
- konteks tempatan (komuniti, organisasi, data kelas sendiri)
- justifikasi keputusan (kenapa pilih pendekatan itu)
- refleksi proses (apa yang gagal, apa yang berubah)
- bukti (petikan, data, dan semakan silang)
Contoh praktikal (sesuai untuk kursus apa pun):
- Pelajar gunakan AI untuk jana 3 rangka esei.
- Pelajar pilih 1 rangka, kemudian tulis kritikan kenapa 2 rangka lain lemah.
- Pelajar wajib nyatakan 5 tuntutan fakta dan bagaimana ia disahkan.
Di sini AI membantu, tetapi pelajar tetap perlu berfikir.
Polisi kampus & bilik darjah: standardkan cara guna AI
Jawapan ringkas: Polisi yang jelas mengurangkan penipuan dan meningkatkan literasi AI—selagi ia fokus pada ketelusan dan kemahiran, bukan hukuman semata-mata.
Kalau setiap pensyarah buat peraturan sendiri, pelajar akan ambil jalan paling mudah. Lebih baik institusi selaraskan kerangka ringkas:
“Deklarasi penggunaan AI” untuk setiap tugasan
Minta pelajar isi 4 perkara (ringkas, 3–5 ayat setiap satu):
- Bahagian apa AI digunakan (idea, struktur, semakan bahasa, ringkasan)
- Prompt utama (atau ringkasan prompt)
- Apa yang diubah oleh pelajar (hujah, contoh, data)
- Apa yang disahkan (fakta, rujukan, petikan)
Ini bukan untuk “menangkap”. Ini untuk membina tabiat profesional—sama macam menyatakan metodologi dalam penyelidikan.
Penilaian fokus pada proses, bukan sekadar produk
Jika rubrik hanya menilai “hasil akhir cantik”, AI akan menang. Rubrik yang menilai proses akan memihak kepada pembelajaran:
- kualiti hujah dan justifikasi
- ketepatan bukti dan semakan sumber
- refleksi kelemahan dan pembaikan
- kebolehan mempertahankan idea secara lisan
Latihan “anti-halusinasi” sebagai literasi AI
Masukkan modul mini (30–45 minit) tentang:
- jenis halusinasi AI (fakta palsu, rujukan rekaan, petikan tidak wujud)
- cara semak silang (dua sumber bebas, data primer, bahan kursus)
- tanda amaran (terlalu spesifik tanpa bukti, gaya yakin tetapi kabur)
Kalau kampus serius tentang AI dalam pendidikan, modul begini patut jadi standard—bukan pilihan.
Cara pelajar guna AI tanpa “merosakkan” kemahiran berfikir
Jawapan ringkas: Gunakan AI untuk mencabar idea dan mempercepat kerja rutin, tetapi kekalkan aktiviti teras (membina hujah, menyemak bukti, mengingat) pada diri sendiri.
Saya suka guna aturan mudah: AI untuk draf 30%, manusia untuk keputusan 70%. Bukan nombor mutlak, tetapi prinsip kawalan.
Berikut rutin yang selamat dan berkesan:
- Tulis pendapat sendiri dulu (5–10 minit) sebelum buka AI. Ini “kunci” suara dan arah.
- Guna AI untuk kritik, bukan untuk “buat siap”. Contoh prompt: “Cari lompang logik dalam hujah ini dan cadangkan soalan balas.”
- Wajibkan semakan fakta: pilih 5 kenyataan penting dan sahkan secara manual.
- Buat ringkasan satu perenggan tanpa rujuk AI selepas siap—uji ingatan dan pemahaman.
- Latih mod tanpa AI seminggu sekali: esei pendek, kiraan, atau refleksi tangan.
Kalau anda seorang pendidik, anda boleh jadikan rutin ini sebahagian daripada aktiviti kelas.
Penutup: masa depan AI dalam pendidikan bergantung pada reka bentuk
AI dalam pendidikan dan EdTech bukan trend sementara—ia sudah jadi infrastruktur belajar. Persoalannya bukan “benar atau larang”, tetapi bagaimana kita mereka bentuk pengalaman belajar supaya AI menguatkan kognitif, bukan melemahkannya.
Kajian-kajian terkini menunjukkan risiko yang nyata: cognitive offloading yang berlebihan, cognitive debt yang terkumpul, dan over-trust yang membuat pelajar kurang menilai. Saya percaya kita boleh elakkan semua ini—tetapi hanya jika kita tegas tentang proses: semakan bukti, refleksi, dan pemilikan idea.
Jika anda sedang membina atau memilih platform EdTech, atau merangka polisi AI untuk sekolah/kampus pada semester baharu, jadikan ini prinsip asas: AI patut memaksa pelajar berfikir dengan lebih baik—bukan berfikir dengan lebih sedikit.
Apa satu perubahan kecil yang anda boleh buat minggu ini—dalam tugasan, rubrik, atau reka bentuk platform—supaya AI menjadi jurulatih dan bukannya tongkat?