ذكاء اصطناعي آمن للطاقة بالسعودية: من المخاطر للقيمة

كيف تُحوّل الذكاء الاصطناعي قطاع الطاقة والنفط والغاز في المملكة العربية السعوديةBy 3L3C

كيف تستفيد شركات الطاقة السعودية من الذكاء الاصطناعي مع تقليل مخاطر إساءة الاستخدام؟ إطار عملي لحوكمة وأمن AI في النفط والغاز.

حوكمة الذكاء الاصطناعيأمن سيبرانيالنفط والغازالطاقة السعوديةالذكاء الاصطناعي التوليديإدارة المخاطر
Share:

Featured image for ذكاء اصطناعي آمن للطاقة بالسعودية: من المخاطر للقيمة

ذكاء اصطناعي آمن للطاقة بالسعودية: من المخاطر للقيمة

في 13/02/2025 حذّر إريك شميدت، الرئيس التنفيذي السابق لـGoogle، من أن الذكاء الاصطناعي قد يُساء استخدامه من جهات متطرفة أو دول مارقة لإيذاء الأبرياء. كثيرون قرأوا التصريح كخبر “مخيف” وانتهى الأمر. أنا أراه تذكيراً عملياً: أي قطاع حيوي يستخدم الذكاء الاصطناعي دون حوكمة وأمن سيُضطر للدفع لاحقاً—مالياً وتشغيلياً وسمعياً.

وفي السعودية، لا يوجد قطاع أكثر حساسية من الطاقة والنفط والغاز. لأننا نتحدث عن أصول مادية ضخمة، وشبكات تشغيلية، وبيانات إنتاج وإمداد، وسلاسل توريد، وامتثال، وسمعة وطنية. الذكاء الاصطناعي هنا يمكن أن يرفع الكفاءة ويقلّل الانقطاعات ويُحسّن السلامة… لكنه أيضاً يفتح أبواباً جديدة للهجمات إذا لم يُدار بعقلانية.

هذه المقالة جزء من سلسلة «كيف تُحوّل الذكاء الاصطناعي قطاع الطاقة والنفط والغاز في المملكة العربية السعودية». تركيزنا اليوم: كيف نحصل على فوائد الذكاء الاصطناعي في الطاقة من دون أن نكرّر سيناريوهات الإساءة التي يخشاها قادة التقنية.

لماذا مخاطر الذكاء الاصطناعي تهم شركات الطاقة في السعودية؟

الجواب المباشر: لأن الذكاء الاصطناعي في الطاقة لا يعيش داخل جهاز لابتوب؛ بل يلمس عمليات تشغيل حرجة. أي خطأ أو اختراق أو تلاعب في نموذج قد ينعكس على قرارات صيانة، أو تشغيل، أو سلامة، أو إمداد.

تصريح شميدت ركّز على “المخاطر القصوى” مثل الاستخدامات البيولوجية أو الإرهابية. لن ننقل النقاش حرفياً إلى الطاقة، لكن المنطق واحد: نفس القدرات التي تجعل الذكاء الاصطناعي مفيداً—التحليل السريع، التوليد، الأتمتة—يمكن أن تُستخدم ضدك.

في قطاع النفط والغاز والكهرباء، المخاطر العملية عادةً تتمحور حول:

  • هجمات سيبرانية مدعومة بالذكاء الاصطناعي: تصيّد أكثر إقناعاً، انتحال، رسائل “شبه رسمية”، وتسريع اكتشاف الثغرات.
  • تلاعب بالنماذج والبيانات: Data poisoning لبيانات حساسات أو صيانة، أو Prompt injection لأدوات المساعدة الداخلية.
  • تسريب معلومات حساسة: مشاركة موظف لمعلومة تشغيلية أو وثيقة عبر أداة عامة دون قصد.
  • قرارات غير آمنة بسبب هلوسة النموذج: عندما يُعامل المخرج النصي كحقيقة تشغيلية.

الفكرة الأساسية التي يجب أن تُقال بوضوح: الذكاء الاصطناعي لا يضيف “مخاطر جديدة فقط”… بل يسرّع المخاطر القديمة ويزيد نطاقها.

الابتكار مقابل التنظيم: ما الذي يصلح لبيئة الطاقة السعودية؟

الجواب المباشر: نحتاج حوكمة ذكية لا تقتل السرعة ولا تترك الباب مفتوحاً. شميدت طالب برقابة حكومية على الشركات الخاصة مع تحذير من الإفراط في التنظيم. في الطاقة، المعادلة أدق لأن التنظيم أصلاً جزء من طبيعة القطاع، لكن المشكلة تكون عندما تتحول الحوكمة إلى “أوراق” بدلاً من “ضوابط تنفيذية”.

نموذج عملي: «سياج أمان» بدل «فرامل يد»

بدلاً من منع فرق الأعمال من استخدام الذكاء الاصطناعي حتى يكتمل كل شيء، جرّبت مؤسسات ناجحة أسلوباً أكثر واقعية:

  1. تحديد حالات استخدام مسموحة مبكراً (مثل: تلخيص تقارير، تحليل نصوص حوادث، دعم خدمة الموردين).
  2. منع الحالات عالية الحساسية مؤقتاً (مثل: أي قرارات تحكم مباشر بمعدات OT أو تغيير Setpoints).
  3. توسيع تدريجي وفق قياس المخاطر (Risk tiers) مع مؤشرات قبول واضحة.

هذا يخلق توازناً: الابتكار يستمر، لكن ضمن حدود مفهومة.

لماذا الحديث عن الشرائح (Microchips) يهم الطاقة؟

شميدت أيد قيود تصدير الشرائح المتقدمة. قد يبدو هذا نقاشاً بعيداً، لكنه ينعكس على قرارات الطاقة بطريقة غير مباشرة:

  • توافر القدرة الحاسوبية سيحدد أين تُبنى النماذج وكيف تُشغّل (سحابة، مركز بيانات داخلي، مزوّد إقليمي).
  • أي استراتيجية ذكاء اصطناعي في شركة طاقة تحتاج خطة Compute واقعية، لا وعود تسويقية.

وهنا موقف واضح: استراتيجية الذكاء الاصطناعي في الطاقة لا تبدأ بالنموذج؛ تبدأ بالبنية التحتية، والبيانات، والضوابط.

أين يخلق الذكاء الاصطناعي قيمة في النفط والغاز… وأين يختبئ الخطر؟

الجواب المباشر: أكبر قيمة تأتي من الأتمتة والتحليل التنبؤي، وأكبر خطر يأتي من ربط الذكاء الاصطناعي مباشرةً بالأنظمة التشغيلية أو التعامل معه كمرجع وحيد.

1) الصيانة التنبؤية وتقليل التوقفات

عندما تُستخدم نماذج تعلم آلي لتحليل الاهتزازات والحرارة والضغط، يمكنها توقّع أعطال المضخات والضواغط قبل حدوثها. في شركات الطاقة، ساعة توقف واحدة قد تعني خسائر كبيرة وسلسلة تبعات على الإمداد.

لكن الخطر واضح: إذا تم تلويث بيانات الحساسات أو التلاعب بها، قد يقترح النموذج “طمأنة كاذبة” أو إنذاراً خاطئاً.

ما الذي يعمل عملياً؟

  • فصل واضح بين طبقة التنبؤ وطبقة القرار.
  • التحقق من جودة البيانات (Data validation) وقياس الانحرافات.
  • قواعد “إيقاف تلقائي” (kill switch) لأي توصية غير منطقية.

2) سلامة العمليات (HSE) والتحقيق في الحوادث

تحليل النصوص لبلاغات السلامة، وربطها بأنماط متكررة، يختصر وقت التحقيق ويزيد الوقاية. الذكاء الاصطناعي هنا يخدم الثقافة: “منع الحادث قبل وقوعه”.

الخطر؟ أن يتحول النظام إلى “مُصدّر تقارير” فقط دون تغيير سلوك، أو أن يُستخدم لتقييم أفراد بطريقة تخلق مقاومة داخلية.

أفضل ممارسة رأيتها تعمل: استخدم الذكاء الاصطناعي لتجميع الأنماط، واترك الحكم الإداري للحوكمة البشرية.

3) إدارة سلسلة الإمداد والمخزون

تنبؤ الطلب، وتحسين مستويات المخزون، ومطابقة طلبات الموردين—كلها مجالات قوية للذكاء الاصطناعي في الطاقة.

المخاطر الأكثر شيوعاً:

  • رسائل احتيال للموردين أكثر إقناعاً (انتحال شخصية بريدية، أو “أوامر شراء” مزيفة).
  • إدخال بيانات خاطئة عبر تكاملات غير محمية.

الحل ليس تقنياً فقط؛ بل ضبط إجراءات:

  • توثيق متعدد العوامل للموافقات الحساسة.
  • مسار اعتماد مستقل لأي تغيير بيانات بنكية للموردين.

4) الذكاء الاصطناعي التوليدي لفرق الاتصال والمعرفة

في السعودية، فرق الطاقة تتعامل مع تقارير طويلة، سياسات، أدلة تشغيل، ومراسلات متعددة الأطراف. هنا الذكاء الاصطناعي التوليدي ممتاز في:

  • تلخيص وثائق فنية طويلة.
  • بناء “مساعد معرفة” داخلي لفرق الهندسة والتشغيل.
  • أتمتة مسودات تواصل أصحاب المصلحة.

لكن الخطر رقم 1 هو تسريب البيانات.

قاعدة بسيطة لا أساوم عليها: أي استخدام توليدي في شركة طاقة يجب أن يمر عبر بيئة مؤسسية محكومة، وليس أدوات عامة غير مضبوطة.

إطار عملي لـ«الذكاء الاصطناعي المسؤول» في الطاقة (7 ضوابط لا تتجاوزها)

الجواب المباشر: إذا طبّقت هذه الضوابط السبعة، فأنت تقلّل احتمال الإساءة بشكل كبير، وتزيد قابلية التوسع بثقة.

1) تصنيف البيانات قبل النماذج

ابدأ بـ3 مستويات واضحة على الأقل:

  • بيانات عامة
  • بيانات داخلية
  • بيانات حساسة/حرجة (تشغيل، أصول، أمن، عقود)

ثم اربط كل مستوى بما هو مسموح في أدوات الذكاء الاصطناعي.

2) فصل IT عن OT… وعدم كسر القاعدة بسهولة

ربط النماذج بأنظمة التشغيل الصناعي OT يجب أن يكون تدريجياً وبعزل قوي. أي “تجربة سريعة” في OT قد تكون مكلفة.

3) إدارة الهوية والصلاحيات (Zero Trust)

  • أقل صلاحية ممكنة (Least privilege)
  • تسجيل ومراجعة الاستخدام (Logging)
  • مراقبة سلوك غير طبيعي

4) حماية النماذج من حقن الأوامر وتسميم البيانات

  • فلاتر للمدخلات (Input sanitization)
  • اختبار red teaming داخلي
  • مراقبة انجراف النموذج (Model drift) وتغيّر البيانات

5) إنسان في الحلقة للقرارات الحرجة

أي توصية تمس السلامة أو الإنتاج أو التوقفات يجب أن تمر عبر اعتماد بشري محدد بالاسم والدور.

جملة مختصرة تصلح كسياسة: “الذكاء الاصطناعي يقترح… والإنسان يقرر.”

6) قياس أداء النموذج بمقاييس تشغيلية لا أكاديمية

لا يكفي أن تقول “الدقة عالية”. استخدم مقاييس مثل:

  • تقليل وقت التوقف (بالساعات)
  • تقليل الحوادث القابلة للتسجيل
  • تقليل زمن دورة الشراء
  • خفض الإنذارات الكاذبة

7) خطة استجابة للحوادث مخصصة للذكاء الاصطناعي

إذا حدث تسريب، أو توصية خاطئة، أو تلاعب:

  • من يوقف النظام؟
  • كيف تُعزل البيانات؟
  • كيف يُبلّغ أصحاب المصلحة؟
  • كيف تُراجع القرارات التي اتُخذت بناءً على النموذج؟

وجود هذه الخطة قبل الإطلاق يختصر الضرر عند أول حادث.

أسئلة شائعة داخل شركات الطاقة (وإجابات مباشرة)

هل الحل هو منع الذكاء الاصطناعي بسبب المخاطر؟

لا. المنع يخلق “استخداماً خفياً” خارج سيطرة الشركة. الحل هو إتاحة استخدام محكوم ببدائل داخلية آمنة.

هل نحتاج فريقاً جديداً بالكامل؟

تحتاج فريقاً متعدد التخصصات: أمن سيبراني، تشغيل، بيانات، قانوني/امتثال، وإدارة مخاطر. لا تبنِ المشروع داخل قسم واحد ثم تتفاجأ بالرفض.

ما أول مشروع آمن ويعطي عائداً سريعاً؟

عادةً: تلخيص تقارير داخلية + مساعد معرفة على وثائق غير شديدة الحساسية داخل بيئة مؤسسية، ثم الانتقال للصيانة التنبؤية على نطاق محدود.

الخطوة التالية لشركات الطاقة في السعودية

تصريحات شميدت ليست سبباً للذعر؛ هي سبب للانضباط. الذكاء الاصطناعي في قطاع الطاقة السعودي سيتوسع لأن العائد واضح، لكن الفائزين هم من يبنون الحوكمة والأمن جنباً إلى جنب مع الابتكار.

إذا كنت تقود مبادرة ذكاء اصطناعي في النفط والغاز أو الكهرباء، جرّب هذا النهج خلال 30 يوماً:

  1. اختر حالتي استخدام: واحدة منخفضة المخاطر وأخرى متوسطة.
  2. طبّق تصنيف بيانات واضح وسياسة استخدام مختصرة.
  3. نفّذ اختبار اختراق/محاكاة إساءة استخدام للنموذج قبل الإطلاق.
  4. ضع مؤشرين نجاح مرتبطين بالتشغيل (وقت، تكلفة، سلامة).

سؤال أخير يستحق التفكير: هل مشروع الذكاء الاصطناعي لديك “مثير” فقط… أم أنه قابل للتوسع داخل قطاع حرج دون أن يصبح نقطة ضعف؟