AI Inference ที่สเกลได้: หัวใจของพลังงานสะอาดไทย

AI ในภาคพลังงานไทย: การเปลี่ยนผ่านสู่พลังงานสะอาดBy 3L3C

มูลค่าจริงของ AI ในภาคพลังงานไทยไม่ได้อยู่ที่การฝึกโมเดล แต่อยู่ที่ trusted AI inference ที่รันได้จริง ช่วยบาลานซ์กริดและลดต้นทุนพลังงานสะอาด

AI พลังงานสะอาดAI inferenceพยากรณ์พลังงานหมุนเวียนบำรุงรักษาเชิงคาดการณ์กริดอัจฉริยะดิจิทัลทรานส์ฟอร์มพลังงาน
Share:

AI Inference ที่สเกลได้: หัวใจของพลังงานสะอาดไทย

เกือบทุกโรงไฟฟ้าและผู้ให้บริการพลังงานในไทยตอนนี้มี “โปรเจกต์ AI นำร่อง” ไม่ว่าจะเป็นโมเดลพยากรณ์โหลดไฟฟ้า หรือระบบตรวจจับความผิดปกติของอุปกรณ์ แต่ถ้าโมเดลฉลาดแค่ในสไลด์ PowerPoint หรือรันได้แค่ใน POC ห้องแล็บ มูลค่าที่แท้จริงก็ยังไม่เกิดขึ้นอยู่ดี

หัวใจของการเปลี่ยนผ่านสู่ พลังงานสะอาด จริง ๆ อยู่ที่ช่วงเวลาเล็ก ๆ ช่วงหนึ่ง: ตอนที่ AI ทำ inference แล้วถูกเอาไปใช้ตัดสินใจจริงในห้องควบคุม, ในสถานีชาร์จรถ EV, หรือในฟาร์มโซลาร์บนหลังคาโรงงาน นั่นต่างหากคือจุดที่กำไรเพิ่ม ต้นทุนลด และความน่าเชื่อถือของระบบไฟฟ้าไทยดีขึ้นแบบจับต้องได้

บทความนี้จะชวนคุณมอง AI ในภาคพลังงานผ่านเลนส์ใหม่: ไม่ใช่แค่ “สร้างโมเดลให้เจ๋ง” แต่คือการสร้าง “trusted AI inferencing at scale and in production” หรือพูดง่าย ๆ คือ ทำให้ AI ที่ไว้ใจได้ รันจริงได้ และขยายได้ทั้งองค์กร โดยจะโยงตรงไปยังบริบทพลังงานสะอาดของไทยและโอกาสที่ธุรกิจพลังงานกำลังมองข้ามกันอยู่


ทำไม Inference คือจุดที่มูลค่าจริงของ AI ในพลังงานเกิดขึ้น

ถ้าเปรียบอุตสาหกรรมพลังงานไทยตอนนี้ หลายองค์กรโฟกัสหนักไปที่การ “ฝึกโมเดล” แต่ยังไม่สามารถทำให้โมเดลลงไปช่วยตัดสินใจในงานประจำวันของโอเปอเรชันได้อย่างต่อเนื่อง นี่คือจุดที่ส่วนใหญ่สะดุด

ข้อเท็จจริงที่ต้องยอมรับ: มูลค่าทางธุรกิจของ AI ส่วนใหญ่ไม่ได้เกิดตอน train โมเดล แต่เกิดตอน inference – ตอนที่โมเดลตอบคำถาม, พยากรณ์, หรือแนะนำการตัดสินใจในสถานการณ์จริง

ในภาคพลังงาน ตัวอย่างที่เห็นภาพชัดมีเยอะมาก:

  • โมเดลพยากรณ์กำลังผลิตโซลาร์จากภาพเมฆและข้อมูลสภาพอากาศ
  • AI ทำนายความเสี่ยงที่หม้อแปลงจะขัดข้องล่วงหน้า 7–14 วัน
  • ระบบเสนอ setpoint ที่เหมาะสมในการบริหารแบตเตอรี่เก็บพลังงาน (BESS) แบบเรียลไทม์

หาก inference พวกนี้ไม่ถูกต่อเข้ากับ SCADA, ระบบควบคุมโรงไฟฟ้า, หรือแพลตฟอร์มบริหารพลังงานของอาคาร มันก็กลายเป็นแค่ “รายงานสวย ๆ” ที่ไม่มีผลกับ EBITDA

นี่คือเหตุผลว่าทำไมบริษัทอย่าง HPE ถึงย้ำว่าค่าของ AI อยู่ที่ “trusted AI inferencing at scale and in production” และผมเชื่อว่ามันตรงกับสิ่งที่ภาคพลังงานไทยต้องทำในช่วง 3–5 ปีข้างหน้ามากที่สุด


สร้างความเชื่อมั่น: ถ้าไม่เชื่อผล AI ก็ไม่มีใครกล้าเอาไปสั่งโรงไฟฟ้า

การจะเอา AI ไปยุ่งกับกริดไฟฟ้า, ระบบป้องกัน, หรือ predictive maintenance ของอุปกรณ์หลัก ๆ เรื่อง “ความน่าเชื่อถือ” ไม่ใช่แค่ดีมี แต่คือเงื่อนไขขั้นต่ำ

แก่นของเรื่องนี้ง่ายมาก:

Bad data in = bad inferencing out

ในโลกความเป็นจริงของโรงไฟฟ้าไทย ปัญหาที่ผมเห็นบ่อยมีประมาณนี้:

  • ข้อมูลเซนเซอร์หายบ่อย, sampling ไม่สม่ำเสมอ
  • มีค่า missing, outlier จากการคาลิเบรตอุปกรณ์ที่ไม่สม่ำเสมอ
  • เวลาในแต่ละระบบไม่ซิงก์กัน (SCADA, CMMS, weather, billing)

ผลคือ AI เริ่ม “เพ้อเจ้อ” หรือ hallucinate ในเชิงอุตสาหกรรม เช่น:

  • แจ้งเตือน false alarm จนคนคอนโทรลรูมรำคาญแล้วกด mute
  • แนะนำการจ่ายไฟที่ขัดกับสัญชาตญาณวิศวกร จนไม่มีใครเชื่อ

พอเหตุการณ์แบบนี้เกิดซ้ำ ๆ ความเชื่อใจก็หายไป ทุกคนกลับไปพึ่ง “ประสบการณ์ส่วนตัว” แทนระบบ AI ซึ่งทำให้งบลงทุนด้านดิจิทัลหายไปเฉย ๆ แบบไม่สร้างผลลัพธ์

3 หลักคิดในการสร้าง “Trusted AI” สำหรับภาคพลังงาน

  1. ยกระดับคุณภาพข้อมูลแบบจริงจัง ไม่ใช่แค่ ETL ให้เสร็จ

    • ทำ data profiling กับแทบทุกแท็กเซนเซอร์ที่สำคัญ
    • ตั้ง rule ตรวจจับค่าเพี้ยน, missing, drift แล้วแจ้งเตือนย้อนกลับไปหาทีมวิศวกรภาคสนาม
  2. ทำให้ inference โปร่งใส (Explainable)

    • ให้ระบบแสดง feature สำคัญที่ใช้ตัดสินใจ เช่น ทำไมถึงบอกว่าปั๊มตัวนี้เสี่ยงพังใน 10 วัน
    • มี log ชัดว่ารุ่นโมเดลไหน, เวอร์ชันไหน เป็นคนให้คำแนะนำ
  3. ออกแบบวงจร feedback กับคนปฏิบัติงาน

    • ให้โอเปอเรเตอร์กด “ยอมรับ/ไม่ยอมรับ” คำแนะนำได้ แล้วใช้ข้อมูลนั้น retrain โมเดล
    • ตั้ง KPI วัดทั้งจำนวน false alarm และจำนวนเหตุขัดข้องที่จับได้ก่อนเวลา

เมื่อทำสามเรื่องนี้จริงจัง AI จะกลายเป็น “เพื่อนร่วมทีม 24/7” ของฝ่ายปฏิบัติการ ไม่ใช่แค่ widget สวย ๆ บน dashboard


จากโมเดลเป็น “AI Factory”: คิดแบบ Data-Centric ในธุรกิจพลังงาน

องค์กรพลังงานจำนวนมากเคยคิดว่า “ต้องมีโมเดลใหญ่ ๆ ก่อน แล้วค่อยหาที่ใช้” ซึ่งส่วนใหญ่จบที่โปรเจกต์โชว์ในงานประชุม ไม่ได้ลงไปเปลี่ยนกระบวนการจริง

ตอนนี้เทรนด์ใหม่ชัดเจนขึ้นเรื่อย ๆ: ย้ายจาก model-centric ไปสู่ data-centric หรือพูดง่าย ๆ คือ ให้ความสำคัญกับสถาปัตยกรรมข้อมูลและ data pipeline ที่ไหลลื่นมากกว่าการสะสมโมเดลหรู ๆ

ภาพที่ผมชอบใช้คือ “AI factory” สำหรับภาคพลังงาน:

  • ข้อมูลจากมิเตอร์อัจฉริยะ, สถานีชาร์จ EV, โซลาร์รูฟท็อป, ฟาร์มลม, SCADA, CMMS ไหลเข้ามาอย่างต่อเนื่อง
  • มี pipeline จัดระเบียบ ทำความสะอาด และจัดเก็บบน data platform กลาง
  • มีวงจร feedback จากการปฏิบัติงานจริงย้อนกลับเข้าโมเดล เพื่อปรับปรุงอย่างต่อเนื่อง

4 Quadrant ของกลยุทธ์ AI ที่ใช้ได้จริงในพลังงาน

ผมขอหยิบไอเดีย “AI factory implication matrix” ของ HPE มาปรับให้เข้ากับโลกพลังงานไทย จะได้เห็นภาพชัดว่าควรใช้ AI แบบไหนกับเคสไหน

  1. Run – ใช้โมเดลภายนอกแบบ API

    • ตัวอย่าง: ใช้โมเดลภาษา (LLM) จากผู้ให้บริการคลาวด์ เพื่อทำ chatbot ตอบคำถามลูกค้าบริการไฟฟ้าหรือโซลาร์รูฟท็อป
    • จุดเน้น: ความปลอดภัยของข้อมูลลูกค้า, การกำกับดูแลว่า AI ตอบอะไรได้/ไม่ได้
  2. RAG – ใช้โมเดลทั่วไป + ข้อมูลเฉพาะของบริษัท

    • ตัวอย่าง: ระบบช่วยวิศวกรค้นคู่มืออุปกรณ์, SOP, ประวัติการซ่อมบำรุง โดยถามภาษาธรรมชาติ เช่น “ขั้นตอนเปลี่ยนเบรกเกอร์รุ่น X ในสถานี Y คืออะไร”
    • จุดเน้น: การเชื่อมข้อมูลเอกสาร, ข้อมูลเทคนิค, และข้อมูลประวัติอุบัติเหตุ ให้ chatbot ดึงไปตอบได้อย่างถูกต้อง
  1. Riches – เทรนโมเดลเฉพาะกิจจากข้อมูลของตัวเอง

    • ตัวอย่าง: โมเดลพยากรณ์โหลดไฟฟ้าสำหรับพื้นที่กรุงเทพฯ ที่ใช้ข้อมูลสภาพอากาศ, พฤติกรรมการใช้ไฟ, เทศกาลไทย, นโยบาย Time-of-Use
    • จุดเน้น: สร้างความได้เปรียบเชิงแข่งขัน (competitive advantage) จาก data ที่คู่แข่งไม่มี
  2. Regulate – โมเดลเฉพาะกิจจากข้อมูลภายนอกที่อ่อนไหว

    • ตัวอย่าง: โมเดลวิเคราะห์ข้อมูลการใช้ไฟของลูกค้าเชิงพฤติกรรม เพื่อออกแบบ demand response program ใหม่ ๆ
    • จุดเน้น: กฎหมาย, PDPA, ข้อกำกับจากหน่วยงานกำกับดูแลพลังงาน และความโปร่งใสกับผู้ใช้ไฟ

ส่วนใหญ่แล้ว บริษัทพลังงานไม่ได้อยู่แค่หนึ่ง quadrant แต่ใช้หลายแบบผสมกัน เช่น ใช้ Run สำหรับ chatbot ลูกค้า, ใช้ RAG สำหรับคลังความรู้วิศวกร, แล้วใช้ Riches/Regulate กับโมเดลพยากรณ์โหลดและบำรุงรักษาเชิงคาดการณ์

คำถามที่ผู้บริหารพลังงานควรถามตัวเองคือ:

  1. “Intelligence ไหนต้องเป็นของเราเอง?” – โมเดลไหนคือหัวใจธุรกิจที่ไม่ควรฝากชีวิตไว้กับ vendor 100%
  2. “Data ไหนเป็นเอกลักษณ์ของเรา?” – ข้อมูลจากกริด, การใช้ไฟ, หรือการดำเนินงานส่วนไหนที่ทำให้เราต่างจากรายอื่น และควรเปลี่ยนมันให้เป็น Riches

บทบาทใหม่ของฝ่าย IT พลังงาน: จากผู้ดูแลระบบ สู่ผู้นำการสเกล AI

ความท้าทายที่เจอเหมือนกันแทบทุกองค์กรคือ: AI นำร่องทำงานได้ แต่พอจะขยายใช้ทั้งองค์กร ระบบดันพัง

  • ใช้งานได้ดีในโรงไฟฟ้าหนึ่งแห่ง แต่พอจะขยายไปอีก 10 แห่ง กลับติดเรื่อง data standard ไม่เท่ากัน
  • โมเดลพยากรณ์โหลดในระดับจังหวัดทำได้ แต่พอจะขยับเป็นระดับประเทศ ติด performance, cost, และ integration

นี่คือช่วงเวลาที่ฝ่าย IT ต้อง “ลงมาเล่นจริง” แทนที่จะปล่อยให้แต่ละหน่วยธุรกิจลองใช้ AI กันเองแบบกระจัดกระจาย หรือที่หลายคนเรียกกันว่า shadow AI

สิ่งที่ฝ่าย IT ภาคพลังงานควรทำ ถ้าอยากสเกล AI ให้ได้จริง

  1. ออกแบบ data platform กลางสำหรับพลังงาน

    • รวมข้อมูลหลัก ๆ เช่น SCADA, AMI, asset management, weather, EV charging, DER เข้ามาอยู่ในแพลตฟอร์มที่มี governance ชัดเจน
  2. มาตรฐานโครงสร้างพื้นฐานสำหรับ AI

    • ตัดสินใจชัด ๆ ว่าอะไรจะรันบน on-prem (เช่น ข้อมูลละเอียดระดับลูกค้า), อะไรใช้ private cloud, อะไรไป public cloud ได้
    • วางมาตรฐานการ deploy โมเดล, monitoring, retraining ให้ทุกทีมใช้ pattern เดียวกัน
  3. ตั้ง Center of Excellence (CoE) ด้าน AI พลังงาน

    • ทำหน้าที่วาง guideline ว่าองค์กรจะใช้ Run / RAG / Riches / Regulate กับกรณีไหน
    • สนับสนุนทีมงานหน้างานให้เริ่มโปรเจกต์ใหม่ได้เร็ว แต่ยังอยู่ในกรอบ governance เดียวกัน

องค์กรที่ไม่ขยับเรื่องนี้ทัน เสี่ยงจะซ้ำรอยตอนย้ายขึ้นคลาวด์เมื่อสิบปีก่อน: แต่ละฝ่ายซื้อโซลูชันเอง, ข้อมูลแยกส่วน, ค่าใช้จ่ายบวม, ความปลอดภัยงงกันไปหมด


ตัวอย่างเคสในบริบทไทย: จากโซลาร์รูฟท็อปถึงกริดอัจฉริยะ

เพื่อให้เห็นภาพ ผมขอยกตัวอย่างสมมติที่อิงกับสถานการณ์จริงในไทย

เคส 1: บริษัทพลังงานติดตั้งโซลาร์รูฟท็อปทั่วประเทศ

  • ระยะแรก มี AI พยากรณ์การผลิตโซลาร์สำหรับโครงการนำร่อง 5 แห่ง ในระดับ POC
  • ปัญหา: ทีมขายอยากใช้ตัวเลขพยากรณ์นี้เสนอ PPA กับลูกค้า แต่ฝ่ายปฏิบัติการไม่เชื่อ เพราะเจอ forecast เพี้ยนในบางวันเมฆเยอะ
  • การแก้:
    • ปรับปรุง data pipeline ดึงข้อมูลเมฆ, ฝน, ค่าบังเงาจริง มา train ใหม่
    • ทำ dashboard แสดง confidence level และเหตุผลของ forecast ทุกครั้ง
    • วัดผลชัดว่า forecast ใหม่ลด gap ระหว่างสัญญากับการผลิตจริงได้กี่เปอร์เซ็นต์

เคส 2: ผู้ให้บริการกริดย่อยในนิคมอุตสาหกรรม

  • มีแผนใช้ AI ทำ predictive maintenance กับหม้อแปลงและสวิตช์เกียร์
  • ระยะแรก ใช้โมเดลภายนอก (Run) วิเคราะห์ vibration และ temperature
  • พอใช้งานไปสักพัก พบว่า pattern ความเสียหายไม่เหมือนประเทศต้นทางที่โมเดลถูกเทรนมา เช่น มีผลจากอุณหภูมิสูงและความชื้นของไทย
  • ทางออกที่เวิร์ก: ขยับจาก Run → Riches ด้วยการนำข้อมูลเสียหายจริงในนิคมตัวเองมาฝึกโมเดลใหม่เพิ่มเติม ทำให้จับเหตุขัดข้องก่อนเกิดจริงได้มากขึ้น 30–40%

สองเคสนี้ชี้ชัดอย่างหนึ่ง: มูลค่าที่แท้จริงของ AI ในพลังงานสะอาดเกิดตอนที่เรา เอา inference ที่ไว้ใจได้ ไปฝังในกระบวนการตัดสินใจทุกวัน ไม่ใช่แค่รันทดสอบเล่น ๆ แล้วเก็บรายงาน


ก้าวต่อไปของธุรกิจพลังงานไทย: เล่นให้ชัดในทั้ง 4 Quadrant

สำหรับทีมในภาคพลังงานไทยที่อยากเดินหน้าต่อจาก “โปรเจกต์นำร่อง” ไปสู่ AI ที่อยู่ในโปรดักชันจริง ผมสรุปแนวคิดให้ใช้ตรวจเช็กตัวเองได้ง่าย ๆ แบบนี้:

  1. คุณรู้หรือยังว่า ตอนนี้องค์กรคุณอยู่ใน quadrant ไหนบ้าง ระหว่าง Run / RAG / Riches / Regulate
  2. คุณมี data platform กลาง ที่พอจะเป็น “AI factory” สำหรับกรณีใช้งานด้านพลังงานสะอาดหรือยัง
  3. คุณออกแบบ trusted AI inferencing หรือยัง ทั้งในมุมคุณภาพข้อมูล, ความโปร่งใส, และ feedback loop กับคนปฏิบัติงาน
  4. ฝ่าย IT ได้กลายเป็น ผู้นำการสเกล AI หรือยัง หรือยังเป็นแค่คนถูกเรียกมาปิดงานท้ายโปรเจกต์

ถ้าสิ่งเหล่านี้ยังกระจัดกระจาย ปี 2568–2569 จะเป็นช่วงเวลาทองที่คู่แข่งคุณซึ่งตอบคำถามพวกนี้ได้ชัดเจนกว่า จะใช้ AI ในการบริหารกริด, พยากรณ์พลังงานหมุนเวียน, และบำรุงรักษาเชิงคาดการณ์ จน ต้นทุนต่อหน่วยไฟต่ำกว่า และความเสี่ยงระบบน้อยกว่า อย่างชัดเจน

ภาคพลังงานไทยกำลังเดินหน้าสู่พลังงานสะอาดอย่างจริงจัง ทั้งโซลาร์, ลม, EV, และระบบกักเก็บพลังงาน AI จะไม่ใช่แค่ของเล่นในงานสัมมนาอีกต่อไป แต่จะกลายเป็นสมองที่ช่วยบาลานซ์กริด, ลดการปล่อยคาร์บอน และเพิ่มกำไรให้ธุรกิจที่วางหมากถูก

คำถามคือ: องค์กรของคุณพร้อมจะเปลี่ยนจาก “ทดลอง AI” ไปสู่ “AI ที่ inference อยู่ในทุกวันทำงาน” แล้วหรือยัง?