Banyak kilang di Malaysia labur besar dalam AI, tapi tersekat pada connectivity. Lihat bagaimana CXL dan optik ala Marvell jadi kunci sebenar kilang pintar.
Pada 2025, pelaburan global dalam infrastruktur AI pusat data sudah mencecah ratusan bilion dolar, tetapi majoriti kerugian prestasi masih berlaku pada… kabel dan sambungan. Bukan pada cip pemproses.
Inilah realiti yang ramai pengeluar terlepas pandang. Mereka belanja besar untuk GPU, XPU dan robotik pintar, tapi rangkaian, memori dan sambungan antara cip masih tahap “cukup makan”. Hasilnya, projek kilang pintar tersangkut: model AI lambat respons, sistem visi mesin ‘lag’, robot AGV tersentak bila data tersekat.
Untuk sektor E&E, automotif dan semikonduktor di Malaysia, isu connectivity ini bukan teori. Ia penentu sama ada kilang di Bayan Lepas, Kulim atau Senai mampu menyaingi fasiliti di Taiwan, Korea dan China yang sedang memecut dengan AI berprestasi tinggi.
Artikel ini kupas bagaimana pemain seperti Marvell sedang membentuk generasi baharu AI connectivity – dan apa maksudnya untuk strategi kilang pintar anda di Malaysia.
Dari ‘Compute-first’ ke ‘Connectivity-first’ dalam AI kilang
Hakikatnya, bottleneck utama AI hari ini bukan lagi kuasa compute, tetapi connectivity.
Alasan dia mudah:
- Model AI (terutama visi, kawalan proses, analitik masa nyata) kini dijalankan merentas banyak GPU/XPU, bukan satu cip.
- Data sensor kilang datang daripada ratusan kamera, PLC, robot dan sistem MES/ERP serentak.
- Semua komponen ini perlu berkongsi memori dan bertukar data dalam mikro saat.
Tanpa sambungan yang betul-betul pantas dan cekap tenaga:
- GPU mahal anda habiskan masa menunggu data, bukan memproses.
- Latensi tinggi menyebabkan ramalan kualiti datang lewat; produk sudah terlepas ke proses seterusnya.
- Sistem robotik dan AGV jadi kurang licin, terutama bila kilang padat dan trafik data tinggi.
Inilah sebabnya Marvell, dalam Industry Analyst Day mereka, menyatakan diri sebagai syarikat “end-to-end connectivity” untuk AI – dari dalam cip (die-to-die) sampai ke rangkaian optik jarak jauh.
Bagi pengeluar di Malaysia, mesejnya jelas: kalau pelaburan AI anda hanya fokus pada “compute”, tetapi mengabaikan lapisan connectivity, anda sebenarnya sedang bayar untuk kuasa yang tak boleh dimanfaatkan sepenuhnya.
CXL: Senjata baru untuk atasi ‘sempit leher’ memori AI
Untuk AI di kilang, satu batasan besar ialah bandwidth dan kapasiti memori. Model visi resolusi tinggi, digital twin, dan analitik prediktif sangat lapar memori.
Di sinilah CXL (Compute Express Link) muncul sebagai komponen kritikal.
CXL ialah standard sambungan cache-coherent yang membolehkan:
- Pooling memori: banyak server/compute node berkongsi “kolam” memori yang besar.
- Scaling compute dan memori secara bebas: tambah memori tanpa perlu tukar CPU/GPU.
- Latency lebih rendah berbanding akses ke storan tradisional.
Marvell menunjukkan bagaimana CXL boleh mengubah permainan melalui:
Contoh: Memori tambahan 20 TB untuk beban kerja AI
Dalam demo di OCP 2025, gabungan Marvell Structera A dengan peralatan CXL Liqid dan memori Samsung:
- Menyediakan sehingga 20 TB memori tambahan dalam satu sistem.
- Structera A sendiri menyokong sehingga 4 TB DDR5 tambahan dan menggunakan 16 teras Arm Neoverse.
- Marvell mendakwa prestasi vektor carian meningkat 5.3× berbanding peranti CXL pooling biasa.
Apa kaitan dengan kilang pintar Malaysia?
Bayangkan use case ini di sektor E&E / semikonduktor:
- Analitik kualiti masa nyata pada berjuta imej AOI (automated optical inspection) sehari.
- Model besar untuk digital twin line SMT atau proses front-end wafers.
- Carian vektor untuk pengesanan corak anomali daripada data sensor proses bertahun-tahun.
Tanpa memori yang besar dan dekat dengan compute, anda terpaksa:
- Kecilkan model (kurang tepat).
- Batch-kan data (kurang masa nyata).
- Tambah banyak server (kos dan tenaga meningkat).
Dengan CXL compute/memory accelerator seperti Structera A, arkitek IT kilang boleh:
- Mula design “AI memory fabric” yang dikongsi oleh pelbagai aplikasi kualiti, penyelenggaraan prediktif dan perancangan pengeluaran.
- Kurangkan bilangan server fizikal, tetapi naikkan utilisasi GPU dan XPU.
- Menyokong pertumbuhan model AI 2026–2028 tanpa rebuild pusat data sepenuhnya.
Dari tembaga ke optik: kenapa rangkaian AI kilang perlu cahaya, bukan lagi kabel biasa
Satu lagi perubahan besar yang dibawa Marvell melalui pengambilalihan Celestial AI ialah peralihan dari sambungan berasaskan tembaga kepada optik untuk AI.
Dalam pusat data AI, dan semakin banyak dalam kilang pintar:
- Link XPU-ke-XPU (GPU, DPU, NPU) menuntut bandwidth puluhan terabit sesaat.
- Latensi perlu berada dalam sub-200 ns untuk latihan dan inferens skala besar.
- Penggunaan kuasa per bit perlu jatuh 4–5× berbanding sambungan tradisional.
Tembaga makin sukar memenuhi semua ini disebabkan:
- Kehilangan isyarat pada frekuensi tinggi.
- Masalah haba dalam rak yang padat.
- Kabel besar dan sukar diurus bila port semakin banyak.
Photonic Fabric: cip optik padat untuk AI fabrics
Celestial AI membangunkan Photonic Fabric – chiplet optik padat yang boleh:
- Di-co-package bersama XPU dan switch skala naik (scale-up switch).
- Beri bandwidth kelas switch sehingga 16 Tbps per arah per chiplet (64 Tbps dua hala dalam satu pakej).
- Kekalkan latensi sangat rendah dan penggunaan kuasa lebih rendah.
Untuk pengeluar di Malaysia, implikasinya besar bila:
- Anda sedang merancang pusat data AI di dalam kampus kilang, bukannya bergantung sepenuhnya pada awan luar negara.
- Line produksi baru (contoh EV inverter, ADAS module, modul RF 5G) memerlukan uji dan analisis data intensif di tepi (edge) untuk jaga OEE.
Dengan rangkaian optik short-reach dan long-haul:
- Node AI di bangunan berbeza dalam satu kampus boleh berkongsi AI fabric yang sama.
- Data dari line di Seberang Perai boleh diproses dalam kluster AI di pusat data dalaman tanpa kehilangan prestasi.
- Anda boleh bina “AI backbone” kilang yang tahan skala 5–10 tahun, bukan 2–3 tahun.
Optik untuk HBM pooling: memanjangkan memori tanpa bunuh latensi
Celestial AI juga mengusahakan optical HBM pooling:
- Memori HBM (yang biasanya betul-betul sebelah cip) boleh dipanjangkan ke jarak puluhan meter.
- Latensi masih dalam bajet yang sesuai untuk latihan model besar.
- Optical link boleh keluar dari tengah die, membebaskan tepi die untuk lebih banyak HBM.
Diterjemah ke dunia pembuatan:
- Model kualiti / digital twin paling berat boleh “duduk” di node compute pusat.
- Data dari pelbagai line masih dapat diakses sebagai set data tunggal yang sangat besar, tanpa penalty latensi teruk.
- Ini menyokong visi sebenar “enterprise-wide manufacturing AI fabric” – bukan silo kecil per line.
Apa makna strategi connectivity Marvell kepada kilang di Malaysia
Bila dikumpulkan, strategi Marvell ini memberi gambaran jelas:
Masa depan AI bukan sekadar cip lebih laju, tetapi fabric connectivity yang bijak dari aras cip hingga aras kampus.
Untuk pengeluar elektronik, automotif dan semikonduktor di Malaysia, ada tiga kesan praktikal.
1. Reka pelan AI sebagai fabric, bukan projek terpencil
Ramai syarikat masih layan AI mengikut projek:
- Satu projek visi mesin di line A.
- Satu projek predictive maintenance di fasiliti B.
- Satu lagi projek perancangan bekalan di HQ.
Pendekatan connectivity-first bermaksud:
- Reka satu AI/compute fabric bersama berasaskan CXL, Ethernet/UALink dan optik.
- Pastikan semua projek akan datang boleh “tumpang” fabric yang sama.
- Standardkan protokol, latensi sasaran dan model keselamatan rangkaian.
Hasilnya:
- Kos pelaburan AI lebih tersusun, bukannya beli infra berulang kali.
- Data silang-fungsi (kualiti + maintenance + logistic) lebih mudah digabung untuk model yang lebih kuat.
2. Masukkan connectivity sebagai keperluan dalam RFP vendor
Bila anda keluarkan RFP untuk:
- Robotik generasi baru,
- Sistem visi AOI/AXI,
- MES/SCADA dengan AI bawaan,
- Atau pusat data kilang,
Jangan hanya tanya tentang:
- Berapa FPS model boleh jalankan.
- Berapa banyak kamera boleh disokong.
- Berapa besar model boleh dilatih.
Mula masukkan soalan seperti:
- Adakah penyelesaian ini menyokong CXL atau fabric memori setara?
- Latensi hujung-ke-hujung dari sensor ke keputusan AI – dalam ns/ms, bukan “rendah/tinggi”.
- Sokongan untuk Ethernet AI fabric, UALink atau serdes kelajuan tinggi untuk sambungan XPU.
- Pelan jalan (roadmap) vendor ke arah optical connectivity dalam 3–5 tahun.
Syarikat yang tanya soalan macam ini biasanya akan dapat sistem yang tahan lebih lama dan lebih mudah diintegrasi.
3. Rancang tenaga dan haba seiring dengan connectivity
Bila anda naikkan kelajuan rangkaian dan tambah node AI:
- Penggunaan kuasa rangkaian, retimer, kabel aktif akan naik.
- Haba dalam rak, bilik server dan bilik kawalan akan jadi lebih mencabar.
Di sinilah teknologi seperti:
- Retimer cekap tenaga,
- Active electrical cable,
- Dan terutamanya optical engines berkuasa rendah
jadi kritikal.
Untuk fasiliti Malaysia yang mungkin terhad dari sudut power budget dan penyejukan:
- 4–5× penjimatan kuasa per bit seperti yang disasarkan Photonic Fabric bukan hanya bonus; ia mungkin syarat untuk projek AI berskala besar diluluskan.
Cara praktikal mula “naik taraf connectivity” AI kilang anda pada 2026
Bagi saya, pengeluar yang berjaya dalam 2–3 tahun akan datang ialah mereka yang berani treat connectivity seperti ‘produk strategik’, bukan sekadar IT overhead.
Beberapa langkah praktikal yang boleh diambil dari sekarang:
-
Audit connectivity AI sedia ada
- Senaraikan semua aplikasi AI di kilang dan pusat data.
- Ukur (atau sekurang-kurangnya anggarkan) latensi, bandwidth dan utilization untuk setiap aliran data utama.
- Kenal pasti di mana GPU/XPU sering idle kerana menunggu data.
-
Tetapkan sasaran metrik connectivity
Contoh:- Masa respons model visi mesin < 100 ms dari imej ditangkap hingga keputusan.
- Latensi fabric AI (node ke node) < 200 ns untuk beban kerja tertentu.
- Penggunaan kuasa rangkaian per Gbps sasaran turun 30–40% dalam 3 tahun.
-
Masukkan CXL dan AI fabrics dalam pelan IT/OT jangka sederhana
- Kenal pasti beban kerja yang paling sesuai untuk CXL memory pooling (contoh: digital twin, analitik multi-line).
- Rancang migrasi secara fasa, bukan “big bang”.
- Bekerjasama dengan rakan teknologi yang memang mempunyai pelan jelas ke arah CXL dan optik.
-
Eksperimen awal dengan sambungan optik untuk zon kritikal
- Mulakan dengan sambungan antara rak AI utama atau antara bangunan.
- Pantau penjimatan tenaga dan kestabilan latensi.
- Gunakan hasil ini sebagai justifikasi dalaman untuk pelaburan lebih besar.
-
Selaraskan pasukan IT, OT dan kejuruteraan proses
Connectivity AI menyentuh rangkaian, server, robot, PLC dan sistem ujian.
Kalau setiap jabatan bergerak sendiri-sendiri, hasilnya patchwork yang mahal dan sukar diselenggara.
Pada 14/12/2025 ini, bila ramai pengeluar sedang menutup tahun kewangan dan merancang bajet 2026, ini masa yang sesuai untuk mengubah cara anda melihat AI: bukan sebagai kotak GPU baharu, tetapi sebagai jaringan connectivity yang dioptimumkan untuk data kilang.
Syarikat seperti Marvell hanya satu contoh bagaimana ekosistem semikonduktor global sedang bergerak ke arah dunia “connectivity-first AI”. Soalnya, adakah pelan kilang pintar anda di Malaysia sudah selari dengan arah ini – atau masih terperangkap pada mindset “tambah saja lagi compute”?
Siri: AI dalam Pembuatan (Elektronik, Automotif, Semikonduktor)
Artikel ini sebahagian daripada siri tentang bagaimana AI, semikonduktor dan infrastruktur pintar mengubah cara kilang Malaysia beroperasi – dari lantai produksi hingga pusat data.