سلامة الذكاء الاصطناعي أولاً: دروس لتقنيات الطاقة بالسعودية

كيف تُحوّل الذكاء الاصطناعي قطاع الطاقة والنفط والغاز في المملكة العربية السعوديةBy 3L3C

دروس مُبلّغ تسلا تكشف لماذا سلامة الذكاء الاصطناعي شرط لنجاحه. إطار عملي لتطبيق AI بأمان في الطاقة والنفط والغاز بالسعودية.

سلامة الذكاء الاصطناعيحوكمة البياناتالنفط والغازإدارة المخاطرالتحول الرقميالصيانة التنبؤية
Share:

Featured image for سلامة الذكاء الاصطناعي أولاً: دروس لتقنيات الطاقة بالسعودية

سلامة الذكاء الاصطناعي أولاً: دروس لتقنيات الطاقة بالسعودية

قبل عامين تقريباً، تسريب واحد من داخل شركة سيارات كهربائية ضخمة كان كافياً ليُربك السوق ويعيد سؤالاً قديماً إلى الواجهة: هل نثق بالذكاء الاصطناعي عندما يصبح جزءاً من قرارات تمسّ سلامة الناس مباشرة؟ في 05/12/2023 ظهرت شهادة مُبلّغ سابق من شركة تسلا يشكّك في جاهزية تقنيات القيادة المساعدة للاستخدام العام، متحدثاً عن شكاوى عملاء وحوادث كـ“الفرملة الوهمية” (Phantom Braking) وأن محاولة رفع المخاوف داخلياً لم تُؤخذ بجدية.

هذا الخبر يبدو بعيداً عن قطاع الطاقة… لكنه في الحقيقة قريب جداً. لأن الذكاء الاصطناعي الذي يوجّه سيارة على طريق مفتوح هو من نفس العائلة التقنية التي تُستخدم اليوم في التنبؤ بالأعطال في المضخات، وضبط العمليات في المصافي، وإدارة الأحمال في الشبكات، ومراقبة سلامة الأصول. الفارق أن “الخطأ” في الطاقة قد لا يكون فرملة مفاجئة فقط؛ بل توقف إنتاج، أو حادث سلامة صناعية، أو انبعاثات غير مخططة، أو قرار تشغيل غير مناسب في لحظة حسّاسة.

ضمن سلسلة “كيف تُحوّل الذكاء الاصطناعي قطاع الطاقة والنفط والغاز في المملكة العربية السعودية”، هذه المقالة تأخذ قصة تسلا كنقطة انطلاق لتوضيح ما يجب أن تفعله المؤسسات السعودية كي تتبنّى الذكاء الاصطناعي بسرعة… ولكن بمسؤولية.

ماذا تقول قصة المُبلّغ عن المخاطر الحقيقية للذكاء الاصطناعي؟

الفكرة الأساسية واضحة: الذكاء الاصطناعي قد يعمل بشكل ممتاز في المتوسط، لكنه قد يفشل بشكل خطير في “الحواف”—السيناريوهات النادرة، أو الظروف غير المتوقعة، أو البيانات المشوشة. المُبلّغ تحدث عن شكاوى مرتبطة بالقيادة المساعدة والفرملة الوهمية، وهي مثال كلاسيكي على نموذج يرى شيئاً غير موجود، أو يفسّر ظلاً/انعكاساً كخطر.

في الطاقة والنفط والغاز، يظهر نفس النمط بأشكال أخرى:

  • نموذج يتنبأ بسلامة صمام/مضخة بناءً على بيانات تاريخية، ثم يفشل عند تغيّر جودة الخام أو ظروف التشغيل.
  • نظام رؤية حاسوبية لمراقبة معدات الحماية الشخصية يخطئ في بيئة إضاءة صعبة.
  • نموذج تحسين إنتاج يرفع المردود مؤقتاً لكنه يسرّع تدهور المعدّات لأن دالة الهدف لم “تفهم” تكلفة التآكل.

عبارة واحدة تلخص الدرس: إذا كان نظام الذكاء الاصطناعي يتخذ قراراً يؤثر على البشر أو الأصول، فاختباره يجب أن يركّز على حالات الفشل لا على متوسط الأداء.

التشابه بين سيارات ذاتية القيادة وعمليات الطاقة: “نفس النوع من المخاطر”

الإجابة المباشرة: نعم، هناك تشابه عميق بين القطاعين لأن كليهما يعمل في بيئات عالية التعقيد، حيث الأخطاء مكلفة، والبيانات لا تكون مثالية دائماً.

1) الاعتماد على بيانات “العالم الحقيقي”

السيارات على الطرق تواجه ضوضاء بيانات: أمطار، غبار، إنارة، أعمال طرق. وفي مواقع الطاقة لدينا: اهتزازات، تغيرات ضغط وحرارة، تداخل حساسات، وانقطاعات اتصال.

المشكلة هنا ليست فقط جودة البيانات، بل انحياز البيانات: ما الذي تم جمعه؟ وما الذي لم يُجمع أصلاً؟ كثير من الأعطال النادرة لا تظهر إلا مرة كل سنوات؛ فكيف سيدرّب النموذج نفسه عليها؟

2) وهم “الطيّار الآلي” في المؤسسات

في قصة تسلا، ميزة تحمل اسماً يوحي بالاستقلالية، بينما الواقع يتطلب سائقاً منتبهاً. في الطاقة يحدث شيء مشابه: لوحات تحكم مبهرة وتقارير دقيقة قد توحي أن النظام “يعرف” كل شيء، فتتراجع حساسية الفرق التشغيلية تجاه المخاطر.

القاعدة التي أؤمن بها: أي نظام ذكاء اصطناعي يجب أن يزيد من يقظة الإنسان لا أن يستبدلها.

3) التنظيم والامتثال ليسا عبئاً… بل شبكة أمان

الخبر أشار إلى تحقيقات جهات متعددة حول ادعاءات القيادة المساعدة. في قطاع الطاقة، الامتثال والحوكمة موجودان أصلاً (سلامة العمليات، أنظمة الجودة، إدارة التغيير). الذكاء الاصطناعي يجب أن يدخل هذه المنظومة، لا أن يعمل بجانبها كمنتج تقني منفصل.

إطار عملي لسلامة الذكاء الاصطناعي في شركات الطاقة السعودية

الإجابة المباشرة: لتطبيق الذكاء الاصطناعي بأمان في النفط والغاز والطاقة، تحتاج المؤسسة إلى حوكمة واضحة، واختبارات فشل منهجية، ومراقبة مستمرة، ومسؤولية قابلة للمساءلة.

1) صمّم الحوكمة قبل النموذج

لا تبدأ بسؤال “أي نموذج نستخدم؟” بل ابدأ بـ“من يملك القرار ومن يراجع ومن يوقف النظام؟”. أفضل نهج رأيته عملياً هو إنشاء مسار حوكمة يشبه مسار اعتماد أي تغيير تشغيلي.

أسئلة حوكمة لا يمكن تجاهلها:

  • من “مالك” النموذج داخل الأعمال (وليس داخل تقنية المعلومات فقط)؟
  • ما مستوى المخاطر؟ (منخفض/متوسط/عالٍ) وما أثره على السلامة؟
  • هل يوجد kill switch واضح لإيقاف النموذج والعودة لوضع يدوي؟
  • ما سياسة الاحتفاظ بالبيانات، والخصوصية، والتحكم في الوصول؟

2) اختبر “الفرملة الوهمية” الخاصة بك

كما أن السيارة قد تفرمل لشيء غير موجود، قد يصدر نموذجك إنذاراً كاذباً يوقف خطاً إنتاجياً، أو يتجاهل مؤشراً حقيقياً لأنه لم يره من قبل.

طريقة اختبار عملية:

  1. ابنِ “مكتبة سيناريوهات فشل” تضم الحالات النادرة (انقطاع حساس، انجراف معايرة، تغيّر خام، عاصفة رملية… إلخ).
  2. نفّذ اختبارات تحت الضغط وليس في بيئة مختبرية فقط.
  3. قيّم الأداء بمقاييس عملية:
    • معدل الإنذارات الكاذبة (False Positives)
    • معدل الإغفال (False Negatives)
    • زمن الاستجابة (Latency)
    • أثر القرار على السلامة والتكلفة

جملة قابلة للاقتباس: المؤسسة التي لا تقيس الإنذارات الكاذبة ستدفع ثمنها مرتين: مرة في التوقفات، ومرة في فقدان ثقة المشغلين.

3) اجعل القرار “قابلاً للتفسير” للمشغّل

التفسير ليس رفاهية. في غرفة التحكم، لا وقت لقراءة تقرير من 20 صفحة. المطلوب تفسير تشغيلي سريع:

  • ما المتغيرات الثلاثة التي دفعت النموذج لهذا القرار؟
  • ما درجة الثقة؟
  • ما البديل الآمن إذا كان القرار خاطئاً؟

في بيئات الطاقة، أفضل تطبيقات الذكاء الاصطناعي ليست التي تتكلم كثيراً… بل التي تُظهر السبب وتشير إلى المسار الآمن.

4) المراقبة بعد النشر: لأن الواقع يتغير

حتى لو اجتاز النموذج الاختبارات، سيواجه “انجراف البيانات” (Data Drift): تغيّر ظروف التشغيل، أو تحديث حساسات، أو تغيير موردين.

ماذا يعني هذا عملياً؟

  • لوحات مراقبة لصحة النموذج (Model Health)
  • تنبيهات عند انخفاض الدقة أو تغيّر التوزيعات
  • إعادة تدريب مُجدولة، مع توثيق كامل لإصدارات البيانات والنموذج

5) الشفافية الداخلية تحميك من “مفاجأة المُبلّغ”

قصة المُبلّغ تذكير بأن تجاهل قنوات التصعيد لا يُنهي المشكلة؛ بل يؤجلها حتى تخرج للعلن. في شركات الطاقة السعودية، وجود ثقافة سلامة قوية يساعد، لكن الذكاء الاصطناعي يحتاج إضافة واضحة:

  • قناة مخصصة للإبلاغ عن مخاطر النماذج والبيانات
  • لجان مراجعة مشتركة (تشغيل + سلامة + بيانات + أمن سيبراني)
  • سياسة تمنع معاقبة من يرفع “إشارة تحذير” بحسن نية

أين يحقق الذكاء الاصطناعي قيمة كبيرة في الطاقة… بأقل مخاطرة؟

الإجابة المباشرة: ابدأ بحالات استخدام ذات أثر مالي واضح ومخاطر سلامة أقل، ثم انتقل تدريجياً إلى حالات أكثر حساسية بعد نضج الحوكمة.

مسار تبنٍّ تدريجي (أوصي به غالباً)

  1. تحليلات الصيانة التنبؤية للمعدات الدوّارة (مضخات/ضواغط) مع قرار نهائي بيد الإنسان.
  2. تحسين كفاءة الطاقة في المرافق (استهلاك كهرباء/بخار) مع حدود تشغيل محمية.
  3. مراقبة السلامة بالتصوير لرصد مناطق ممنوعة أو التزام معدات الحماية، مع مراجعة بشرية للإنذارات.
  4. التحكم المتقدم والتحسين الآلي في وحدات مختارة، بعد اختبارات صارمة وطبقات حماية.

المنطق بسيط: ابنِ الثقة أولاً في تطبيقات “توصي” قبل التطبيقات التي “تقرر”.

أسئلة شائعة يطرحها قادة الطاقة في السعودية (وإجابات مباشرة)

هل نوقف مشاريع الذكاء الاصطناعي خوفاً من المخاطر؟

لا. التوقف الكامل قرار مكلف ويُفقدك فرصة تحسين السلامة والكفاءة. القرار الصحيح هو تبنٍّ مضبوط بحوكمة واختبارات ومراقبة.

كيف نختار بين السرعة والامتثال؟

اختر الاثنين، لكن بالتسلسل الصحيح: سرعة في التجارب داخل بيئات مضبوطة، وتشدد في الانتقال للإنتاج (Production) خصوصاً لما يمس السلامة.

ما أكبر خطأ تراه في المشاريع؟

خلط نجاح نموذج في عرض تجريبي (PoC) مع نجاحه في التشغيل اليومي. العرض التجريبي لا يثبت الاعتمادية.

خطوة عملية لفرق الطاقة والنفط والغاز هذا الأسبوع

إذا كنت تقود مبادرة ذكاء اصطناعي في منشأة طاقة أو نفط وغاز في المملكة، نفّذ تمريناً بسيطاً خلال أسبوع:

  1. اختر نموذجاً واحداً تم نشره أو على وشك النشر.
  2. اكتب “سجل مخاطر” من صفحة واحدة يتضمن 10 سيناريوهات فشل.
  3. حدّد لكل سيناريو: كيف سنكتشفه؟ من يقرّر؟ ما خطة الرجوع للوضع الآمن؟

ستتفاجأ كم من المخاطر تصبح واضحة بمجرد كتابتها.

أين نذهب من هنا؟

قصة مُبلّغ تسلا ليست مجرد جدل حول السيارات؛ هي مرآة لما يحدث عندما يتوسع الذكاء الاصطناعي أسرع من منظومة الأمان حوله. وفي قطاع الطاقة السعودي—حيث الأصول ضخمة، والبيئات حساسة، والسمعة التشغيلية مهمة—الذكاء الاصطناعي الناجح هو الذي يُدار كمنظومة سلامة وتشغيل، لا كتطبيق تقني فقط.

إذا كنا جادين في تحويل الذكاء الاصطناعي إلى قيمة مستدامة في النفط والغاز والطاقة، فالسؤال الذي يجب أن نطرحه داخل كل مشروع ليس “هل النموذج ذكي؟” بل: هل فشله سيكون آمناً؟