Konektiviti: Tulang Belakang AI untuk Kilang Pintar

AI dalam Pembuatan (Elektronik, Automotif, Semikonduktor)By 3L3C

Banyak kilang sudah ada GPU, tapi AI tetap perlahan. Bottleneck sebenar kini ialah konektiviti. Inilah yang Marvell tunjukkan dan apa maknanya untuk kilang pintar Malaysia.

AI dalam pembuatankonektiviti industrikilang pintarsemikonduktorelektronik & automotifdata center AIIndustrial IoT
Share:

Konektiviti Kini Jadi ‘Bottleneck’ Utama AI – Bukan GPU Lagi

Dalam banyak kilang elektronik di Pulau Pinang dan Johor, GPU dan server AI sudah pun dipasang, tetapi OEE masih tak berubah banyak. Data mesin tersekat dalam silo, model AI lambat respon, robot tunggu arahan. Masalahnya jarang pada compute semata-mata – masalah sebenar ialah konektiviti.

Inilah mesej besar daripada Marvell pada Industry Analyst Day mereka pada 09/12/2025. Chris Koopmans, Presiden dan COO Marvell, menyebut syarikat itu kini melihat diri mereka sebagai syarikat konektiviti hujung ke hujung. Fokus mereka jelas: bila AI compute sudah “melimpah”, yang menahan prestasi sistem ialah cara kita sambungkan cip, memori dan rangkaian.

Untuk ekosistem pembuatan E&E Malaysia – dari pengeluar semikonduktor hingga kilang automotif – perubahan ini sangat relevan. AI untuk kawalan kualiti, penyelenggaraan ramalan dan kilang pintar tak akan berkesan tanpa fabrik konektiviti yang betul.

Dalam artikel ini, saya huraikan:

  • kenapa konektiviti ialah tulang belakang AI dalam pembuatan,
  • apa sebenarnya yang Marvell buat (CXL, chiplet optik, Photonic Fabric),
  • dan bagaimana pengeluar di Malaysia boleh guna minda “connectivity-first” dalam pelan kilang pintar mereka.

Dari Sudut Pandang Kilang: Kenapa Konektiviti Jadi Isu #1

Untuk AI dalam pembuatan, “bottleneck” utama kini bukan CPU/GPU, tapi cara data mengalir dari sensor ke server ke peralatan.

Koopmans jelaskan trend yang sama di pusat data AI:

  • AI compute (GPU, XPU, accelerator) semakin banyak dan berkuasa.
  • Model besar dan beban kerja AI perlu dipecah dan diagih ke banyak pemproses.
  • Ini membuatkan I/O berkelajuan tinggi, SerDes, sambungan die-to-die, sambungan memori dan interkoneksi optik jadi penentu prestasi sistem.

Dalam konteks kilang pintar Malaysia:

  • Ratusan mesin SMT, tester, robot, AGV dan sistem SCADA menghasilkan data.
  • Sistem visi AI di line produksi perlu akses imej resolusi tinggi secara masa nyata.
  • Sistem MES dan ERP pula nak guna data yang sama untuk perancangan dan rantaian bekalan.

Kalau sambungan masih:

  • Ethernet lama 1G tanpa segmentasi,
  • Wi-Fi yang tak stabil di lantai produksi,
  • integrasi OT–IT yang rapuh,

…AI akan jadi “gimmick” yang cantik dalam slaid, tapi tak memberi impak kepada yield atau downtime.

Realitinya: AI hanya sekuat fabrik konektiviti di bawahnya.


CXL & Memori Teragih: Asas AI untuk Aplikasi Pembuatan Berat Data

Compute Express Link (CXL) ialah standard sambungan koheren yang menyelesaikan masalah utama AI: jalur lebar dan kapasiti memori.

Di pusat data AI, CXL membenarkan:

  • memory pooling — banyak server kongsi kolam memori yang sama,
  • memory sharing — pemproses berbeza akses memori bersama secara koheren,
  • disaggregation — skala compute dan memori secara bebas.

Marvell menonjolkan komitmen besar kepada CXL dengan produk seperti:

  • Marvell Structera A memory accelerator
    • 16 teras Arm Neoverse,
    • sokong sehingga 4 TB memori DDR5 tambahan,
    • diguna dalam appliance Liqid EX5410C untuk memory pooling sehingga 20 TB memori tambahan,
    • Marvell dakwa sehingga 5.3× peningkatan prestasi untuk carian vektor berbanding peranti memory pooling CXL biasa.

Apa Kaitan CXL dengan Kilang Pintar?

Untuk kilang elektronik dan semikonduktor:

  • Model visi komputer untuk inspeksi PCB dan wafer semakin besar dan kompleks.
  • Aplikasi carian vektor (contoh: mencari corak ralat yang serupa dalam sejarah data) perlukan memori besar.
  • Sistem digital twin kilang, simulasi logistik dalaman dan jadual pengeluaran juga haus memori.

Dengan infrastruktur CXL seperti yang Marvell tunjukkan:

  • Pusat data kilang (on-prem atau edge data center di kawasan industri) boleh:
    • skala memori tanpa perlu tukar semua server,
    • jalankan lebih banyak model AI serentak (kualiti, ramalan kegagalan, perancangan),
    • latih semula model lebih dekat dengan lantai produksi, bukannya bergantung penuh pada awan.

Bagi pengeluar Malaysia yang sudah melabur dalam server x86 atau Arm untuk AI:

  • Soalan strategik: Adakah arkitektur sekarang memikirkan CXL, atau masih terhad kepada memori “tertutup” dalam satu server?
  • Kalau tidak, pelaburan AI 2–3 tahun akan datang mungkin tersekat oleh had memori, bukan oleh GPU.

Dari Tembaga ke Optik: Apa Maknanya Photonic Fabric untuk Industri

Apabila kelajuan sambungan meningkat, tembaga (electrical traces, kabel tembaga) sampai had dari segi jalur lebar, kuasa, dan haba. Di sinilah langkah besar Marvell membeli Celestial AI (sekitar USD3.25 bilion) jadi penting.

Celestial AI membangunkan platform pengkomputeran AI berasaskan teknologi Photonic Fabric:

  • fotonik (optik) diintegrasi terus ke dalam cip silikon,
  • membentuk chiplet optik berdensiti tinggi yang di-co-package dengan XPU (GPU/accelerator) dan scale-up switches,
  • menyokong bandwidth kelas switch, contohnya 16 Tbps per arah per chiplet, atau sehingga 64 Tbps dua hala dalam satu pakej.

CEO Celestial AI, Dave Lazovsky, berkongsi bahawa:

  • seorang top-tier hyperscaler sudah menggunakan fotonik mereka untuk pemproses AI,
  • ini menandakan peralihan besar-besaran daripada sambungan tembaga kepada interkoneksi optik dalaman untuk reka bentuk AI.

Keperluan Hyperscaler, Gambaran Awal untuk Kilang

Lazovsky menyenaraikan empat cabaran utama pusat data AI:

  • bandwidth,
  • latensi,
  • kuasa,
  • kos.

Hyperscaler mensasarkan:

  • latensi sambungan bawah 200 ns,
  • pengurangan penggunaan kuasa sebanyak 4–5×.

Bagi kilang pintar besar (contoh: kemudahan semikonduktor yang mengurus ribuan tool dan sensor):

  • AI untuk real-time control dan advanced process control akan semakin sensitif kepada latensi,
  • sambungan optik dari cip ke cip, dari server ke server, akhirnya akan sampai ke edge data center dalam kawasan kilang.

Celestial AI turut membangunkan optical HBM pooling:

  • memanjangkan memori HBM ke jarak “puluhan meter” dari compute,
  • sambil kekalkan latensi yang sesuai untuk latihan model besar,
  • membebaskan ruang di tepi die untuk lebih banyak HBM.

Bagi pemain semikonduktor di Malaysia yang terlibat dalam pemasangan dan ujian cip lanjutan, tren ini membawa dua mesej penting:

  1. Produk masa depan (chiplet, modul optik, retimer) akan semakin berasaskan optik — peluang untuk naik taraf portfolio dan keupayaan test.
  2. Kilang sendiri perlu bersedia untuk infrastruktur yang menyokong frekuensi dan kadar data optik tinggi, termasuk pengurusan haba dan keutuhan isyarat.

Blueprint Konektiviti AI: Pelajaran untuk Kilang di Malaysia

Marvell sedang membina pelan induk konektiviti AI: daripada sambungan dalam cip, ke antara cip, hingga ke rangkaian pusat data optik jarak jauh. Banyak unsur dalam blueprint ini boleh diterjemah terus ke dunia pembuatan elektronik dan automotif tempatan.

1. Fikir “End-to-End Fabric”, Bukan Sekadar Wi-Fi Tambahan

Ramai pengeluar mula inisiatif kilang pintar dengan tambah beberapa titik Wi-Fi, beberapa gateway IoT dan satu server AI. Kebanyakan projek tersangkut di situ.

Pendekatan yang lebih matang:

  • Reka fabrik data kilang daripada awal:
    • segmentasi rangkaian OT dan IT dengan jelas,
    • backbone berkelajuan tinggi (10/25/100G Ethernet),
    • time-sensitive networking (TSN) untuk aplikasi kawalan masa nyata,
    • pertimbangkan arah jangka panjang kepada sambungan optik dalaman.

2. Rancang Arkitektur Memori untuk AI, Bukan Hanya CPU Load

Gunakan prinsip CXL sebagai panduan walaupun anda belum guna CXL hari ini:

  • pisahkan perancangan compute dan memori dalam pelan infrastruktur,
  • kumpulkan beban kerja AI yang berat memori (visi komputer, digital twin) berhampiran kolam memori besar,
  • elak senario di mana setiap sel line produksi ada server kecil yang sendat memori tapi rendah utilisasi.

3. Sediakan Lantai Produksi untuk Optik & Kelajuan Tinggi

Walaupun interkoneksi optik di dalam cip masih nampak jauh dari lantai kilang biasa, beberapa langkah praktikal boleh dibuat sekarang:

  • gunakan kabel dan patch panel yang sedia untuk naik taraf ke 25/40/100G apabila perlu,
  • standardkan rack layout dan cold/hot aisle supaya kemudian boleh tampung server dengan kuasa dan haba lebih tinggi,
  • mula bina kepakaran dalaman dalam pengurusan isyarat berkelajuan tinggi (SI/PI), terutamanya bagi kilang yang juga buat board assembly.

4. Integrasi AI dengan Sistem Sedia Ada melalui Fabrik Konektiviti

Bagi memastikan AI benar-benar mengubah operasi:

  • sambungkan sistem AI kepada:
    • PLC dan SCADA (untuk laksana tindakan automatik),
    • MES (untuk keputusan yield dan rerouting lot),
    • WMS dan sistem logistik dalaman (untuk jadual AGV/robot),
  • guna message bus berprestasi tinggi (contoh: arkitektur publish–subscribe) supaya satu aliran data sensor boleh dimanfaatkan oleh banyak model AI berbeza.

Pendek cerita: jangan biarkan model AI jadi “kotak hitam” terasing di sisi line. Ia patut jadi nod dalam rangkaian keputusan kilang yang saling bersambung.


Langkah Praktikal untuk Pemain E&E dan Automotif di Malaysia

Berikut pendekatan bertahap yang saya nampak berkesan bila berbual dengan pasukan operasi dan IT di kilang:

Fasa 1 (0–6 bulan): Audit & Reka Semula Konektiviti Asas

  • Audit rangkaian OT & IT sedia ada (bandwidth, latensi, reliabiliti).
  • Kenal pasti beban kerja AI sedia ada / dirancang:
    • visi komputer untuk AOI/AXI,
    • ramalan kegagalan mesin,
    • pengoptimuman jadual pengeluaran.
  • Petakan di mana data dihasilkan, di mana diproses, dan di mana disimpan.
  • Kenal pasti “bottleneck” paling ketara: sambungan mesin, core switch, segmentasi, atau memori server.

Fasa 2 (6–18 bulan): Bangunkan Fabrik Data Kilang

  • Naik taraf backbone kepada multi-Gigabit, dengan segmentasi untuk:
    • kawalan masa nyata,
    • data AI (video, log sensor masa tinggi),
    • trafik IT biasa.
  • Standardkan protokol connectivity mesin baru (contoh: OPC UA) supaya data lebih mudah diakses AI.
  • Wujudkan mini data center di dalam atau berhampiran kilang untuk beban kerja AI yang sensitif latensi.

Fasa 3 (18–36 bulan): Optimumkan AI Compute & Memori

  • Nilai penggunaan accelerator, GPU, XPU dan potensi penggunaan CXL.
  • Gabungkan beban kerja AI berkaitan dalam kluster dengan kolam memori lebih besar, berbanding tersebar pada banyak server kecil.
  • Bina hubungan dengan vendor yang aktif dalam:
    • CXL accelerators,
    • switch berkelajuan tinggi,
    • modul optik dan, dalam jangka masa lebih panjang, chiplet fotonik.

Langkah-langkah ini tak perlu menunggu teknologi paling terkini seperti Photonic Fabric berada di pasaran massa. Tetapi bila teknologi itu matang, kilang anda sudah pun mempunyai asas rangkaian dan data yang bersedia.


Kenapa Strategi “Connectivity-First” Akan Bezakan Pemenang

Marvell sedang menghantar mesej yang sama berulang kali: konektiviti, bukan compute, akan menentukan siapa yang menang dalam era AI. Dengan pemerolehan Celestial AI, pelaburan dalam CXL dan tumpuan kepada chiplet serta sambungan optik, mereka jelas bertaruh pada masa depan di mana data boleh mengalir bebas dengan latensi rendah, jalur lebar tinggi dan penggunaan kuasa yang terkawal.

Bagi ekosistem pembuatan Malaysia – terutama dalam siri “AI in Manufacturing (Electronics, Automotive, Semiconductor)” ini – mesejnya sangat serasi:

  • AI untuk kawalan kualiti, robotik, dan pengoptimuman rantaian bekalan hanya akan mencapai potensi penuh jika fabrik data dan rangkaian direka dengan serius.
  • Pelaburan GPU tanpa pelan konektiviti adalah seperti beli kereta sports tapi guna jalan kampung berlubang.

Jika anda sedang merancang pelan kilang pintar 2026–2028, soalan kritikalnya bukan sekadar “model AI apa yang kita perlu?”, tetapi juga:

“Fabrik konektiviti macam mana yang perlu kita bina supaya AI boleh berfungsi sepenuhnya?”

Jawapan jujur pada soalan ini akan membezakan kilang yang sekadar “bercakap tentang AI” dengan kilang yang benar-benar menaikkan yield, mengurangkan downtime, dan memendekkan masa ke pasaran.

Sekarang masa yang baik untuk duduk dengan pasukan OT, IT dan pengurusan, dan mula merangka peta jalan konektiviti AI anda sendiri – sebelum bottleneck itu menjadi semakin mahal.