มูลค่าจริงของ AI ในภาคพลังงานไทยไม่ได้อยู่ที่การฝึกโมเดล แต่อยู่ที่ trusted AI inference ที่รันได้จริง ช่วยบาลานซ์กริดและลดต้นทุนพลังงานสะอาด
AI Inference ที่สเกลได้: หัวใจของพลังงานสะอาดไทย
เกือบทุกโรงไฟฟ้าและผู้ให้บริการพลังงานในไทยตอนนี้มี “โปรเจกต์ AI นำร่อง” ไม่ว่าจะเป็นโมเดลพยากรณ์โหลดไฟฟ้า หรือระบบตรวจจับความผิดปกติของอุปกรณ์ แต่ถ้าโมเดลฉลาดแค่ในสไลด์ PowerPoint หรือรันได้แค่ใน POC ห้องแล็บ มูลค่าที่แท้จริงก็ยังไม่เกิดขึ้นอยู่ดี
หัวใจของการเปลี่ยนผ่านสู่ พลังงานสะอาด จริง ๆ อยู่ที่ช่วงเวลาเล็ก ๆ ช่วงหนึ่ง: ตอนที่ AI ทำ inference แล้วถูกเอาไปใช้ตัดสินใจจริงในห้องควบคุม, ในสถานีชาร์จรถ EV, หรือในฟาร์มโซลาร์บนหลังคาโรงงาน นั่นต่างหากคือจุดที่กำไรเพิ่ม ต้นทุนลด และความน่าเชื่อถือของระบบไฟฟ้าไทยดีขึ้นแบบจับต้องได้
บทความนี้จะชวนคุณมอง AI ในภาคพลังงานผ่านเลนส์ใหม่: ไม่ใช่แค่ “สร้างโมเดลให้เจ๋ง” แต่คือการสร้าง “trusted AI inferencing at scale and in production” หรือพูดง่าย ๆ คือ ทำให้ AI ที่ไว้ใจได้ รันจริงได้ และขยายได้ทั้งองค์กร โดยจะโยงตรงไปยังบริบทพลังงานสะอาดของไทยและโอกาสที่ธุรกิจพลังงานกำลังมองข้ามกันอยู่
ทำไม Inference คือจุดที่มูลค่าจริงของ AI ในพลังงานเกิดขึ้น
ถ้าเปรียบอุตสาหกรรมพลังงานไทยตอนนี้ หลายองค์กรโฟกัสหนักไปที่การ “ฝึกโมเดล” แต่ยังไม่สามารถทำให้โมเดลลงไปช่วยตัดสินใจในงานประจำวันของโอเปอเรชันได้อย่างต่อเนื่อง นี่คือจุดที่ส่วนใหญ่สะดุด
ข้อเท็จจริงที่ต้องยอมรับ: มูลค่าทางธุรกิจของ AI ส่วนใหญ่ไม่ได้เกิดตอน train โมเดล แต่เกิดตอน inference – ตอนที่โมเดลตอบคำถาม, พยากรณ์, หรือแนะนำการตัดสินใจในสถานการณ์จริง
ในภาคพลังงาน ตัวอย่างที่เห็นภาพชัดมีเยอะมาก:
- โมเดลพยากรณ์กำลังผลิตโซลาร์จากภาพเมฆและข้อมูลสภาพอากาศ
- AI ทำนายความเสี่ยงที่หม้อแปลงจะขัดข้องล่วงหน้า 7–14 วัน
- ระบบเสนอ setpoint ที่เหมาะสมในการบริหารแบตเตอรี่เก็บพลังงาน (BESS) แบบเรียลไทม์
หาก inference พวกนี้ไม่ถูกต่อเข้ากับ SCADA, ระบบควบคุมโรงไฟฟ้า, หรือแพลตฟอร์มบริหารพลังงานของอาคาร มันก็กลายเป็นแค่ “รายงานสวย ๆ” ที่ไม่มีผลกับ EBITDA
นี่คือเหตุผลว่าทำไมบริษัทอย่าง HPE ถึงย้ำว่าค่าของ AI อยู่ที่ “trusted AI inferencing at scale and in production” และผมเชื่อว่ามันตรงกับสิ่งที่ภาคพลังงานไทยต้องทำในช่วง 3–5 ปีข้างหน้ามากที่สุด
สร้างความเชื่อมั่น: ถ้าไม่เชื่อผล AI ก็ไม่มีใครกล้าเอาไปสั่งโรงไฟฟ้า
การจะเอา AI ไปยุ่งกับกริดไฟฟ้า, ระบบป้องกัน, หรือ predictive maintenance ของอุปกรณ์หลัก ๆ เรื่อง “ความน่าเชื่อถือ” ไม่ใช่แค่ดีมี แต่คือเงื่อนไขขั้นต่ำ
แก่นของเรื่องนี้ง่ายมาก:
Bad data in = bad inferencing out
ในโลกความเป็นจริงของโรงไฟฟ้าไทย ปัญหาที่ผมเห็นบ่อยมีประมาณนี้:
- ข้อมูลเซนเซอร์หายบ่อย, sampling ไม่สม่ำเสมอ
- มีค่า missing, outlier จากการคาลิเบรตอุปกรณ์ที่ไม่สม่ำเสมอ
- เวลาในแต่ละระบบไม่ซิงก์กัน (SCADA, CMMS, weather, billing)
ผลคือ AI เริ่ม “เพ้อเจ้อ” หรือ hallucinate ในเชิงอุตสาหกรรม เช่น:
- แจ้งเตือน false alarm จนคนคอนโทรลรูมรำคาญแล้วกด mute
- แนะนำการจ่ายไฟที่ขัดกับสัญชาตญาณวิศวกร จนไม่มีใครเชื่อ
พอเหตุการณ์แบบนี้เกิดซ้ำ ๆ ความเชื่อใจก็หายไป ทุกคนกลับไปพึ่ง “ประสบการณ์ส่วนตัว” แทนระบบ AI ซึ่งทำให้งบลงทุนด้านดิจิทัลหายไปเฉย ๆ แบบไม่สร้างผลลัพธ์
3 หลักคิดในการสร้าง “Trusted AI” สำหรับภาคพลังงาน
-
ยกระดับคุณภาพข้อมูลแบบจริงจัง ไม่ใช่แค่ ETL ให้เสร็จ
- ทำ data profiling กับแทบทุกแท็กเซนเซอร์ที่สำคัญ
- ตั้ง rule ตรวจจับค่าเพี้ยน, missing, drift แล้วแจ้งเตือนย้อนกลับไปหาทีมวิศวกรภาคสนาม
-
ทำให้ inference โปร่งใส (Explainable)
- ให้ระบบแสดง feature สำคัญที่ใช้ตัดสินใจ เช่น ทำไมถึงบอกว่าปั๊มตัวนี้เสี่ยงพังใน 10 วัน
- มี log ชัดว่ารุ่นโมเดลไหน, เวอร์ชันไหน เป็นคนให้คำแนะนำ
-
ออกแบบวงจร feedback กับคนปฏิบัติงาน
- ให้โอเปอเรเตอร์กด “ยอมรับ/ไม่ยอมรับ” คำแนะนำได้ แล้วใช้ข้อมูลนั้น retrain โมเดล
- ตั้ง KPI วัดทั้งจำนวน false alarm และจำนวนเหตุขัดข้องที่จับได้ก่อนเวลา
เมื่อทำสามเรื่องนี้จริงจัง AI จะกลายเป็น “เพื่อนร่วมทีม 24/7” ของฝ่ายปฏิบัติการ ไม่ใช่แค่ widget สวย ๆ บน dashboard
จากโมเดลเป็น “AI Factory”: คิดแบบ Data-Centric ในธุรกิจพลังงาน
องค์กรพลังงานจำนวนมากเคยคิดว่า “ต้องมีโมเดลใหญ่ ๆ ก่อน แล้วค่อยหาที่ใช้” ซึ่งส่วนใหญ่จบที่โปรเจกต์โชว์ในงานประชุม ไม่ได้ลงไปเปลี่ยนกระบวนการจริง
ตอนนี้เทรนด์ใหม่ชัดเจนขึ้นเรื่อย ๆ: ย้ายจาก model-centric ไปสู่ data-centric หรือพูดง่าย ๆ คือ ให้ความสำคัญกับสถาปัตยกรรมข้อมูลและ data pipeline ที่ไหลลื่นมากกว่าการสะสมโมเดลหรู ๆ
ภาพที่ผมชอบใช้คือ “AI factory” สำหรับภาคพลังงาน:
- ข้อมูลจากมิเตอร์อัจฉริยะ, สถานีชาร์จ EV, โซลาร์รูฟท็อป, ฟาร์มลม, SCADA, CMMS ไหลเข้ามาอย่างต่อเนื่อง
- มี pipeline จัดระเบียบ ทำความสะอาด และจัดเก็บบน data platform กลาง
- มีวงจร feedback จากการปฏิบัติงานจริงย้อนกลับเข้าโมเดล เพื่อปรับปรุงอย่างต่อเนื่อง
4 Quadrant ของกลยุทธ์ AI ที่ใช้ได้จริงในพลังงาน
ผมขอหยิบไอเดีย “AI factory implication matrix” ของ HPE มาปรับให้เข้ากับโลกพลังงานไทย จะได้เห็นภาพชัดว่าควรใช้ AI แบบไหนกับเคสไหน
-
Run – ใช้โมเดลภายนอกแบบ API
- ตัวอย่าง: ใช้โมเดลภาษา (LLM) จากผู้ให้บริการคลาวด์ เพื่อทำ chatbot ตอบคำถามลูกค้าบริการไฟฟ้าหรือโซลาร์รูฟท็อป
- จุดเน้น: ความปลอดภัยของข้อมูลลูกค้า, การกำกับดูแลว่า AI ตอบอะไรได้/ไม่ได้
-
RAG – ใช้โมเดลทั่วไป + ข้อมูลเฉพาะของบริษัท
- ตัวอย่าง: ระบบช่วยวิศวกรค้นคู่มืออุปกรณ์, SOP, ประวัติการซ่อมบำรุง โดยถามภาษาธรรมชาติ เช่น “ขั้นตอนเปลี่ยนเบรกเกอร์รุ่น X ในสถานี Y คืออะไร”
- จุดเน้น: การเชื่อมข้อมูลเอกสาร, ข้อมูลเทคนิค, และข้อมูลประวัติอุบัติเหตุ ให้ chatbot ดึงไปตอบได้อย่างถูกต้อง
-
Riches – เทรนโมเดลเฉพาะกิจจากข้อมูลของตัวเอง
- ตัวอย่าง: โมเดลพยากรณ์โหลดไฟฟ้าสำหรับพื้นที่กรุงเทพฯ ที่ใช้ข้อมูลสภาพอากาศ, พฤติกรรมการใช้ไฟ, เทศกาลไทย, นโยบาย Time-of-Use
- จุดเน้น: สร้างความได้เปรียบเชิงแข่งขัน (competitive advantage) จาก data ที่คู่แข่งไม่มี
-
Regulate – โมเดลเฉพาะกิจจากข้อมูลภายนอกที่อ่อนไหว
- ตัวอย่าง: โมเดลวิเคราะห์ข้อมูลการใช้ไฟของลูกค้าเชิงพฤติกรรม เพื่อออกแบบ demand response program ใหม่ ๆ
- จุดเน้น: กฎหมาย, PDPA, ข้อกำกับจากหน่วยงานกำกับดูแลพลังงาน และความโปร่งใสกับผู้ใช้ไฟ
ส่วนใหญ่แล้ว บริษัทพลังงานไม่ได้อยู่แค่หนึ่ง quadrant แต่ใช้หลายแบบผสมกัน เช่น ใช้ Run สำหรับ chatbot ลูกค้า, ใช้ RAG สำหรับคลังความรู้วิศวกร, แล้วใช้ Riches/Regulate กับโมเดลพยากรณ์โหลดและบำรุงรักษาเชิงคาดการณ์
คำถามที่ผู้บริหารพลังงานควรถามตัวเองคือ:
- “Intelligence ไหนต้องเป็นของเราเอง?” – โมเดลไหนคือหัวใจธุรกิจที่ไม่ควรฝากชีวิตไว้กับ vendor 100%
- “Data ไหนเป็นเอกลักษณ์ของเรา?” – ข้อมูลจากกริด, การใช้ไฟ, หรือการดำเนินงานส่วนไหนที่ทำให้เราต่างจากรายอื่น และควรเปลี่ยนมันให้เป็น Riches
บทบาทใหม่ของฝ่าย IT พลังงาน: จากผู้ดูแลระบบ สู่ผู้นำการสเกล AI
ความท้าทายที่เจอเหมือนกันแทบทุกองค์กรคือ: AI นำร่องทำงานได้ แต่พอจะขยายใช้ทั้งองค์กร ระบบดันพัง
- ใช้งานได้ดีในโรงไฟฟ้าหนึ่งแห่ง แต่พอจะขยายไปอีก 10 แห่ง กลับติดเรื่อง data standard ไม่เท่ากัน
- โมเดลพยากรณ์โหลดในระดับจังหวัดทำได้ แต่พอจะขยับเป็นระดับประเทศ ติด performance, cost, และ integration
นี่คือช่วงเวลาที่ฝ่าย IT ต้อง “ลงมาเล่นจริง” แทนที่จะปล่อยให้แต่ละหน่วยธุรกิจลองใช้ AI กันเองแบบกระจัดกระจาย หรือที่หลายคนเรียกกันว่า shadow AI
สิ่งที่ฝ่าย IT ภาคพลังงานควรทำ ถ้าอยากสเกล AI ให้ได้จริง
-
ออกแบบ data platform กลางสำหรับพลังงาน
- รวมข้อมูลหลัก ๆ เช่น SCADA, AMI, asset management, weather, EV charging, DER เข้ามาอยู่ในแพลตฟอร์มที่มี governance ชัดเจน
-
มาตรฐานโครงสร้างพื้นฐานสำหรับ AI
- ตัดสินใจชัด ๆ ว่าอะไรจะรันบน on-prem (เช่น ข้อมูลละเอียดระดับลูกค้า), อะไรใช้ private cloud, อะไรไป public cloud ได้
- วางมาตรฐานการ deploy โมเดล, monitoring, retraining ให้ทุกทีมใช้ pattern เดียวกัน
-
ตั้ง Center of Excellence (CoE) ด้าน AI พลังงาน
- ทำหน้าที่วาง guideline ว่าองค์กรจะใช้ Run / RAG / Riches / Regulate กับกรณีไหน
- สนับสนุนทีมงานหน้างานให้เริ่มโปรเจกต์ใหม่ได้เร็ว แต่ยังอยู่ในกรอบ governance เดียวกัน
องค์กรที่ไม่ขยับเรื่องนี้ทัน เสี่ยงจะซ้ำรอยตอนย้ายขึ้นคลาวด์เมื่อสิบปีก่อน: แต่ละฝ่ายซื้อโซลูชันเอง, ข้อมูลแยกส่วน, ค่าใช้จ่ายบวม, ความปลอดภัยงงกันไปหมด
ตัวอย่างเคสในบริบทไทย: จากโซลาร์รูฟท็อปถึงกริดอัจฉริยะ
เพื่อให้เห็นภาพ ผมขอยกตัวอย่างสมมติที่อิงกับสถานการณ์จริงในไทย
เคส 1: บริษัทพลังงานติดตั้งโซลาร์รูฟท็อปทั่วประเทศ
- ระยะแรก มี AI พยากรณ์การผลิตโซลาร์สำหรับโครงการนำร่อง 5 แห่ง ในระดับ POC
- ปัญหา: ทีมขายอยากใช้ตัวเลขพยากรณ์นี้เสนอ PPA กับลูกค้า แต่ฝ่ายปฏิบัติการไม่เชื่อ เพราะเจอ forecast เพี้ยนในบางวันเมฆเยอะ
- การแก้:
- ปรับปรุง data pipeline ดึงข้อมูลเมฆ, ฝน, ค่าบังเงาจริง มา train ใหม่
- ทำ dashboard แสดง confidence level และเหตุผลของ forecast ทุกครั้ง
- วัดผลชัดว่า forecast ใหม่ลด gap ระหว่างสัญญากับการผลิตจริงได้กี่เปอร์เซ็นต์
เคส 2: ผู้ให้บริการกริดย่อยในนิคมอุตสาหกรรม
- มีแผนใช้ AI ทำ predictive maintenance กับหม้อแปลงและสวิตช์เกียร์
- ระยะแรก ใช้โมเดลภายนอก (Run) วิเคราะห์ vibration และ temperature
- พอใช้งานไปสักพัก พบว่า pattern ความเสียหายไม่เหมือนประเทศต้นทางที่โมเดลถูกเทรนมา เช่น มีผลจากอุณหภูมิสูงและความชื้นของไทย
- ทางออกที่เวิร์ก: ขยับจาก Run → Riches ด้วยการนำข้อมูลเสียหายจริงในนิคมตัวเองมาฝึกโมเดลใหม่เพิ่มเติม ทำให้จับเหตุขัดข้องก่อนเกิดจริงได้มากขึ้น 30–40%
สองเคสนี้ชี้ชัดอย่างหนึ่ง: มูลค่าที่แท้จริงของ AI ในพลังงานสะอาดเกิดตอนที่เรา เอา inference ที่ไว้ใจได้ ไปฝังในกระบวนการตัดสินใจทุกวัน ไม่ใช่แค่รันทดสอบเล่น ๆ แล้วเก็บรายงาน
ก้าวต่อไปของธุรกิจพลังงานไทย: เล่นให้ชัดในทั้ง 4 Quadrant
สำหรับทีมในภาคพลังงานไทยที่อยากเดินหน้าต่อจาก “โปรเจกต์นำร่อง” ไปสู่ AI ที่อยู่ในโปรดักชันจริง ผมสรุปแนวคิดให้ใช้ตรวจเช็กตัวเองได้ง่าย ๆ แบบนี้:
- คุณรู้หรือยังว่า ตอนนี้องค์กรคุณอยู่ใน quadrant ไหนบ้าง ระหว่าง Run / RAG / Riches / Regulate
- คุณมี data platform กลาง ที่พอจะเป็น “AI factory” สำหรับกรณีใช้งานด้านพลังงานสะอาดหรือยัง
- คุณออกแบบ trusted AI inferencing หรือยัง ทั้งในมุมคุณภาพข้อมูล, ความโปร่งใส, และ feedback loop กับคนปฏิบัติงาน
- ฝ่าย IT ได้กลายเป็น ผู้นำการสเกล AI หรือยัง หรือยังเป็นแค่คนถูกเรียกมาปิดงานท้ายโปรเจกต์
ถ้าสิ่งเหล่านี้ยังกระจัดกระจาย ปี 2568–2569 จะเป็นช่วงเวลาทองที่คู่แข่งคุณซึ่งตอบคำถามพวกนี้ได้ชัดเจนกว่า จะใช้ AI ในการบริหารกริด, พยากรณ์พลังงานหมุนเวียน, และบำรุงรักษาเชิงคาดการณ์ จน ต้นทุนต่อหน่วยไฟต่ำกว่า และความเสี่ยงระบบน้อยกว่า อย่างชัดเจน
ภาคพลังงานไทยกำลังเดินหน้าสู่พลังงานสะอาดอย่างจริงจัง ทั้งโซลาร์, ลม, EV, และระบบกักเก็บพลังงาน AI จะไม่ใช่แค่ของเล่นในงานสัมมนาอีกต่อไป แต่จะกลายเป็นสมองที่ช่วยบาลานซ์กริด, ลดการปล่อยคาร์บอน และเพิ่มกำไรให้ธุรกิจที่วางหมากถูก
คำถามคือ: องค์กรของคุณพร้อมจะเปลี่ยนจาก “ทดลอง AI” ไปสู่ “AI ที่ inference อยู่ในทุกวันทำงาน” แล้วหรือยัง?