Bila ‘AI’ Rupanya Manusia: Amaran Untuk E-Dagang

AI dalam Perkhidmatan Kewangan (Bank, Insurans, Fintek)By 3L3C

Kes Nate di AS, di mana ‘AI shopping app’ rupanya bergantung pada manusia, jadi amaran besar untuk bank, fintech dan e-dagang Malaysia yang sedang membina AI.

AI dalam kewanganfinteche-dagangfraud detectiongovernance AItransformasi digital
Share:

Bila ‘AI’ Rupanya Manusia: Amaran Untuk E-Dagang Malaysia

Pada 2024, seorang pengasas fintech di AS dituduh menipu pelabur kerana mendakwa aplikasi beli-belahnya dikuasakan “AI”, sedangkan transaksi sebenarnya dibuat secara manual oleh pasukan manusia di Filipina. Lebih RM230 juta (anggaran daripada lebih USD50 juta) berjaya dikutip daripada pelabur sebelum penipuan itu didedahkan.

Kisah ini bukan sekadar gosip dunia startup. Untuk peruncit besar, marketplace, bank, insurans dan fintech di Malaysia yang sedang berlumba membina AI shopping assistant, AI checkout, dan AI fraud detection, kes ini adalah amaran keras: jika anda jual “AI” yang tak wujud, anda bukan sahaja rosakkan reputasi brand, anda juga buka pintu kepada risiko perundangan dan kehilangan kepercayaan pasaran.

Dalam siri “AI dalam Perkhidmatan Kewangan” ini, kita tengok apa sebenarnya pengajaran daripada kes Nate (aplikasi shopping yang didakwa guna AI), bagaimana syarikat e-dagang dan kewangan patut menilai solusi AI, dan apa ciri-ciri AI yang betul-betul boleh diskalakan — bukan sekadar slogan pitch deck.


1. Kes Nate: Bila ‘AI Shopping App’ Sebenarnya Pasukan Manusia

Inti kes Nate ialah jurang besar antara apa yang pendiri janji kepada pelabur dan pengguna, dan apa yang berlaku di belakang tabir.

Mengikut pengumuman Jabatan Kehakiman AS:

  • Pengasas dan bekas CEO Nate berjanji aplikasi itu menawarkan “universal checkout” dikuasakan AI
  • Syarikat mengumpul lebih USD50 juta daripada pelabur teknologi ternama
  • Dalam realiti, banyak transaksi pengguna tidak diproses oleh AI, sebaliknya oleh pekerja manusia di Filipina yang menyalin data dan melengkapkan pembelian secara manual

Masalah sebenar bukan guna manusia — tetapi menipu

Ramai syarikat guna model human-in-the-loop dalam AI, contohnya:

  • Pasukan review anti-fraud di bank
  • Moderator kandungan di platform e-dagang
  • Ejen khidmat pelanggan yang menyemak jawapan chatbot

Itu normal dan kadang-kadang lebih selamat. Yang jadi isu dalam kes Nate:

  • Narratif kepada pelabur: dikatakan AI sudah matang dan automasi tinggi
  • Realiti operasi: manusia lakukan sebahagian besar kerja, bermakna kos tinggi, margin rendah, dan hampir tiada skalabiliti sebenar
  • Kesan kepada pelabur & rakan kongsi: model perniagaan kelihatan kukuh di atas kertas, tetapi sebenarnya tak mampu berkembang bila volume transaksi naik

Inilah yang menukarkan “AI startup” menjadi kes penipuan pelabur.


2. Kenapa Penipuan “AI” Bahaya Untuk Runcit & Kewangan

Bila satu syarikat tipu tentang AI, seluruh ekosistem e-dagang dan kewangan terasa kesannya. Terutama dalam konteks Malaysia, di mana bank dan marketplace besar sedang agresif melabur dalam transformasi digital.

a) Kepercayaan pelabur dan lembaga pengarah merosot

Ramai CFO dan ahli lembaga di rantau ini sudah skeptikal dengan istilah “AI-powered”. Kes seperti Nate menguatkan lagi rasa curiga:

  • Projek AI dalam bank atau peruncit mungkin akan dinilai jauh lebih ketat
  • Due diligence teknologi jadi lebih panjang dan kompleks
  • Bajet untuk AI boleh dibekukan kalau satu projek gagal teruk

Akhirnya, projek AI yang betul-betul berkualiti pun mungkin sukar mendapat kelulusan, hanya kerana beberapa kes penipuan mencemarkan nama industri.

b) Risiko pematuhan dan regulator (BNM, SC, PIDM, dsb.)

Dalam kewangan, regulator tak akan main-main bab representasi palsu:

  • Jika bank atau fintech mengiklankan “AI fraud detection” tapi sebenarnya hanya set peraturan manual, regulator boleh anggap ia mengelirukan pengguna
  • Untuk credit scoring, jika didakwa guna model AI canggih tetapi di belakang hanya lembaran Excel, ia persoalkan ketepatan penilaian risiko dan keadilan kredit

Untuk syarikat tersenarai atau bakal IPO, isu ini boleh jadi liabiliti besar dari sudut pelaporan dan disclosure korporat.

c) Kos operasi meletup bila volume meningkat

Bergantung pada manusia tetapi menjual cerita sebagai AI ada satu masalah asas: kos bertambah selari dengan volume.

Bandingkan dua senario:

  • Model “AI pura-pura”: 10,000 order sehari memerlukan puluhan atau ratusan staf manusia untuk proses checkout secara manual. Margin nipis, kesilapan tinggi.
  • Model AI sebenar: 10,000 ke 100,000 order sehari boleh diurus dengan infrastruktur dan pasukan kecil, kerana automasi adalah tulang belakang.

Untuk peruncit besar dan marketplace, model kos ini membezakan sama ada projek AI anda jadi keuntungan jangka panjang atau “lubang hitam” bajet IT.


3. Bagaimana Mengenal AI Sebenar vs AI Sekadar Slogan

Ada beberapa soalan mudah tapi tajam yang saya selalu cadangkan kepada pengurus projek dan CIO bila menilai solusi AI untuk e-dagang atau perkhidmatan kewangan.

Soalan teknikal asas yang wajib ditanya

  1. Apa input dan output model AI anda?
    Contoh: data transaksi, klik, teks chat; dan output seperti skor risiko, cadangan produk, atau keputusan kelulusan.
  2. Bagaimana model dilatih dan dikemas kini?
    Ada kitaran model training yang jelas, atau hanya “kami guna AI” tanpa butiran?
  3. Berapa peratus proses automasi penuh vs manual?
    Jika 80% masih perlu kerja manusia, ini bukan AI operasi, tetapi workflow berasaskan manusia.
  4. Bagaimana prestasi diukur (metrik)?
    Contoh: kadar pengesanan fraud (%), pengurangan chargeback, peningkatan kadar conversion checkout (%), pengurangan masa respon chatbot (saat).

Jika vendor atau pasukan dalaman tak boleh jawab empat soalan ini dengan jelas, besar kemungkinan AI mereka hanyalah lapisan pemasaran.

Tanda-tanda amaran “AI palsu”

Perhatikan beberapa corak:

  • Terlalu banyak sebutan buzzword (deep learning, generative AI, hyper-personalisation) tanpa contoh spesifik
  • Demo produk sangat teratur, tetapi tiada angka prestasi di production
  • Syarikat enggan berkongsi walaupun gambaran umum seni bina, atas alasan “rahsia perdagangan”, tetapi dalam masa sama tiada paper, tiada benchmark, tiada rujukan pelanggan
  • Penggunaan tenaga kerja operasi yang besar di belakang (contoh, ratusan “data associate”) untuk kerja yang sepatutnya automatik

AI sebenar biasanya kelihatan agak “membosankan” di atas kertas: banyak graf, metrik, proses MLOps, bukan sekadar slide cantik.


4. Rangka Kerja Praktikal: Membangun AI Checkout & Fraud Detection Yang Tulus

Untuk peruncit dan institusi kewangan di Malaysia, ada cara yang lebih sihat dan mampan untuk bina AI dalam e-dagang dan perkhidmatan kewangan. Saya cadangkan empat prinsip ini.

4.1 Mulakan dengan masalah perniagaan yang jelas

Contoh masalah yang biasa saya nampak di runcit & kewangan:

  • Checkout abandonment tinggi: ramai pelanggan berhenti di halaman pembayaran
  • Kadar chargeback dan fraud meningkat pada musim jualan besar (11.11, 12.12)
  • Proses manual review untuk transaksi kad sangat lambat
  • Pusat panggilan dibanjiri soalan status penghantaran dan baki akaun

Definisikan sasaran yang boleh diukur, contohnya:

  • Kurangkan cart abandonment 20% dalam 12 bulan
  • Turunkan kadar fraud kad kredit 30% tanpa jejaskan transaksi sah
  • Pendekkan masa respon pelanggan daripada 5 minit ke 30 saat

Baru pilih jenis AI yang sesuai: recommendation engine, transaction anomaly detection, NLP chatbot, dan sebagainya.

4.2 Reka bentuk sejak awal dengan human-in-the-loop yang jujur

Model operasi yang matang biasanya gabung AI + manusia secara telus:

  • Nyatakan dengan jelas kepada pelanggan bila mereka berinteraksi dengan bot, dan bila dipindahkan kepada ejen manusia
  • Guna AI untuk pre-screen fraud, tapi biar pasukan risk semak kes berisiko tinggi
  • Untuk credit scoring, AI beri skor awal; pegawai kredit ada kuasa budi bicara dengan log audit yang jelas

Model ini bukan sahaja lebih selamat, malah lebih mudah diterangkan kepada regulator dan lembaga pengarah.

4.3 Bina tadbir urus AI (AI governance), bukan hanya model

Dalam konteks bank, insurans dan fintech, AI tanpa tadbir urus adalah risiko pematuhan menunggu masa.

Elemen tadbir urus AI yang patut ada:

  • Polisi dalaman tentang penggunaan data pelanggan (selari dengan PDPA)
  • Proses model validation bebas sebelum model dilancar
  • Monitoring berterusan: drift prestasi, bias, kadar salah positif/negatif
  • Proses incident response bila AI buat keputusan salah yang beri impak besar

Bila regulator seperti Bank Negara Malaysia bertanya, dokumen-dokumen inilah yang membezakan anda daripada syarikat yang sekadar menunggang hype AI.

4.4 Komunikasi yang jujur dengan pelanggan dan pelabur

Ada satu garis halus antara pemasaran agresif dan penipuan. Prinsip mudah:

  • Jangan dakwa “100% AI” kalau sebenarnya 60% masih kerja manual
  • Nyatakan manfaat secara realistik: “mengurangkan masa proses purata 40%” lebih kredibel daripada “AI yang mengubah hidup”
  • Untuk pelabur, bezakan dengan jelas apa yang sudah terbukti vs apa yang masih di fasa eksperimen

Reputasi mengambil masa bertahun untuk dibina, tetapi boleh runtuh dengan satu siaran akhbar daripada regulator.


5. Apa Maksudnya Untuk Bank, Insurans & Fintech di Malaysia

Sektor kewangan Malaysia sebenarnya berada di posisi yang baik untuk guna kes Nate sebagai panduan, bukan sebagai ancaman.

Beberapa trend yang saya nampak bila bercakap dengan pasukan digital dan risiko di bank serta fintech serantau:

  • Fokus kuat kepada AI untuk pengesanan fraud dan AML, bukan sekadar pemasaran
  • Pelaburan besar dalam MLOps dan data platform untuk sokong model pada skala jutaan transaksi sehari
  • Minat tinggi terhadap generative AI untuk khidmat pelanggan, tetapi dengan kawalan ketat dan guardrail pematuhan

Bagi pemain runcit besar dan marketplace yang bekerjasama dengan bank (BNPL, kad bersama, kempen ansuran), kes Nate mengingatkan beberapa perkara penting:

  • Pilih rakan teknologi yang sanggup diaudit dan diuji, bukan hanya yang pandai buat demo
  • Libatkan pasukan risiko & pematuhan sejak peringkat reka bentuk, bukan di hujung projek
  • Sasar model hibrid: AI mengurus kerja rutin, manusia fokus kes kompleks dan bina hubungan pelanggan

Jika sektor kewangan Malaysia berjaya mengekalkan disiplin ini, kita bukan sahaja elak skandal “AI palsu”, malah boleh bina kelebihan daya saing di rantau ASEAN.


Penutup: AI Dalam E-Dagang Perlu Lagi Banyak Kejujuran, Bukan Lagi Banyak Hype

Kisah Nate menunjukkan satu hakikat mudah: pelabur, pelanggan dan regulator bukan anti-AI; mereka cuma anti-penipuan.

Bagi bank, insurans, fintech dan peruncit besar di Malaysia, musim jualan hujung tahun dan awal tahun baharu adalah masa yang sesuai untuk semak semula projek AI anda:

  • Adakah AI anda betul-betul mengurangkan kos dan risiko, atau hanya memindahkan kerja ke pasukan manusia murah?
  • Adakah anda boleh terangkan model dan proses dengan yakin kepada lembaga pengarah, regulator, dan pelanggan?
  • Adakah anda mengukur impak AI dalam angka yang jelas — fraud turun berapa %, conversion naik berapa %, kos operasi jatuh berapa RM?

AI dalam perkhidmatan kewangan dan e-dagang bukan perlumbaan siapa paling banyak guna jargon. Yang menang nanti ialah siapa yang bina sistem yang benar-benar berfungsi secara telus, boleh diaudit, dan boleh diskala.

Jika syarikat lain tumbang kerana menjual ilusi “AI”, anda boleh jadi pihak yang menang dengan satu strategi mudah: guna AI sebenar, dan cakap benar tentangnya.

🇲🇾 Bila ‘AI’ Rupanya Manusia: Amaran Untuk E-Dagang - Malaysia | 3L3C