ثقة الذكاء الاصطناعي في الطاقة السعودية: بلا عَمى

كيف تُحوّل الذكاء الاصطناعي قطاع الطاقة والنفط والغاز في المملكة العربية السعوديةBy 3L3C

الذكاء الاصطناعي في قطاع الطاقة السعودي يسرّع العمل، لكنه قد يخطئ بثقة. تعرّف على حوكمة عملية تمنع التضليل وتدعم الثقة.

حوكمة الذكاء الاصطناعيالنفط والغازقطاع الطاقةإدارة المخاطرالتحول الرقميشفافية البيانات
Share:

Featured image for ثقة الذكاء الاصطناعي في الطاقة السعودية: بلا عَمى

ثقة الذكاء الاصطناعي في الطاقة السعودية: بلا عَمى

قبل أسابيع، قال سوندار بيتشاي، الرئيس التنفيذي لـ«ألفابت»، جملة بسيطة لكنها تُربك كثيرًا من خطط التحول الرقمي: لا تثق بما يقوله الذكاء الاصطناعي ثقة عمياء. في قطاع مثل الطاقة والنفط والغاز في المملكة العربية السعودية، هذه ليست نصيحة عامة… بل شرط سلامة وتشغيل وسمعة.

السبب واضح: نماذج الذكاء الاصطناعي التوليدي ممتازة في الصياغة والتلخيص، لكنها قد تُخطئ بثقة. وهذا النوع من الأخطاء لا يزعجك فقط في بريد داخلي أو تقرير تسويقي؛ قد يتسبب في قرار صيانة خاطئ، أو قراءة ملتبسة لحادثة HSE، أو رسالة غير دقيقة لأصحاب المصلحة.

هذه المقالة ضمن سلسلة «كيف تُحوّل الذكاء الاصطناعي قطاع الطاقة والنفط والغاز في المملكة العربية السعودية»، وتركّز على جانب يغفل عنه كثيرون: كيف نستخدم الذكاء الاصطناعي بقوة… لكن مع حوكمة تمنع التضليل؟

لماذا الثقة بالذكاء الاصطناعي أصبحت قضية تشغيلية في النفط والغاز؟

الإجابة المباشرة: لأن قرارات الطاقة ترتبط بالسلامة والاستمرارية والامتثال، وأي معلومة خاطئة—even لو كانت صغيرة—قد تتضخم بسرعة.

في بيئات الأعمال المكتبية، خطأ في ملخص اجتماع يُصحَّح برسالة لاحقة. أما في بيئات التشغيل (Upstream/Downstream)، فالتعامل مع معلومات غير دقيقة قد يقود إلى:

  • تأخير صيانة لأن النموذج “افترض” سببًا للعطل دون دليل.
  • تضارب تقارير بين ما يقوله الذكاء الاصطناعي وما تقوله أنظمة SCADA أو DCS.
  • مخاطر امتثال إذا خرجت رسالة للمستثمرين أو الجهات التنظيمية بمعلومة غير مثبتة.

وهنا تحديدًا يتقاطع كلام بيتشاي مع واقع القطاع: الذكاء الاصطناعي “قابل للخطأ”، لذلك لا يجوز أن يكون مصدر الحقيقة الوحيد.

الفكرة التي تُنقذك من فوضى الذكاء الاصطناعي

اعتبر الذكاء الاصطناعي مساعدًا لا حَكمًا. المساعد يقترح ويُسرّع، لكن الحكم يحتاج أدلة وقياسات ومراجعة بشرية ومعايير حوكمة.

أين ينجح الذكاء الاصطناعي التوليدي… وأين يجب أن نضع فرامل؟

الإجابة المباشرة: ينجح في الأعمال اللغوية والمعرفية (التلخيص، الصياغة، البحث الداخلي)، ويحتاج ضوابط صارمة عندما يقترب من قرارات التشغيل والسلامة.

بيتشاي أشار إلى أن الذكاء الاصطناعي مفيد “إذا أردت كتابة شيء بشكل إبداعي”، لكنه قد يخطئ عند التعامل مع “المعلومات الدقيقة”. في شركات الطاقة السعودية، أرى تقسيمًا عمليًا يساعد على اتخاذ القرار بسرعة:

(أ) استخدامات منخفضة المخاطر — “مسموح بسرعة”

هذه الحالات غالبًا ما تعطي قيمة فورية إذا دعمتها مراجعة خفيفة:

  • تلخيص اجتماعات المشاريع وكتابة محاضر مختصرة.
  • صياغة مسودات رسائل داخلية أو تحديثات أسبوعية.
  • تجهيز مسودات محتوى توعوي عن السلامة أو الاستدامة (مع مراجعة HSE).
  • تحويل الوثائق الطويلة إلى أسئلة وأجوبة لخدمة فرق الميدان.

(ب) استخدامات متوسطة المخاطر — “مسموح بشرط الدليل”

هنا يبدأ الشرط الأهم: كل ادعاء يجب أن يرتبط بمصدر داخلي.

  • تلخيص تقارير الحوادث (Near Miss) مع الاستشهاد بأرقام البلاغات.
  • توليد مسودات تقارير الأداء (OEE/الإتاحة) بشرط سحب الأرقام من النظام.
  • اقتراح خطط تواصل مع أصحاب المصلحة اعتمادًا على بيانات مؤكدة.

(ج) استخدامات عالية المخاطر — “لا بدون حوكمة صارمة”

  • توصيات مرتبطة بتغيير إعدادات تشغيل.
  • تحليل أسباب الأعطال دون ربط ببيانات حساسات أو سجلات صيانة.
  • أي قرار يمس الالتزام التنظيمي أو الإفصاحات الرسمية.

القاعدة الذهبية: كلما اقتربت من السلامة أو التشغيل أو الإفصاح، ارتفع مستوى الحوكمة المطلوب.

الشفافية في الذكاء الاصطناعي: 3 أسباب تجعلها شرطًا لثقة أصحاب المصلحة

الإجابة المباشرة: لأن أصحاب المصلحة لا يريدون “نصًا جميلًا”، بل يريدون معرفة: ما مصدر المعلومة؟ ما مستوى الثقة؟ ومن يتحمل المسؤولية؟

في السعودية، شركات الطاقة تتعامل مع منظومة واسعة: جهات تنظيمية، شركاء، مستثمرون، مجتمعات محلية، وموردون. الشفافية هنا ليست ترفًا، بل طريقة لتقليل سوء الفهم.

1) الشفافية تقلل “الثقة الزائدة” داخل الشركة

أخطر ما في الذكاء الاصطناعي ليس الخطأ فقط… بل الأسلوب الواثق الذي يقدّم به الخطأ. إذا لم نضع واجهات تُظهر مصادر الإجابة وحدودها، سيبدأ الموظفون في اعتماد الردود كما هي.

جملة عملية قابلة للتطبيق: أي إجابة توليدية في السياق المؤسسي يجب أن تُظهر: المصدر، تاريخ آخر تحديث، ودرجة الثقة/الاكتمال.

2) الشفافية تحمي الرسائل الخارجية من التناقض

عند إعداد بيان استدامة، أو تحديث ربع سنوي، أو رد على استفسار إعلامي، أي تضارب—ولو بسيط—يضعف الثقة. الحل ليس منع الذكاء الاصطناعي، بل جعله يعمل داخل “سور” بيانات واضح.

3) الشفافية تعزز الامتثال وحوكمة البيانات

الذكاء الاصطناعي يحتاج بيانات، والبيانات في الطاقة لها حساسية (أمنية/تجارية/تنظيمية). لذلك من الضروري توضيح:

  • ما الذي يُسمح للنموذج بالوصول إليه؟
  • من يوافق على نشر المخرجات؟
  • كيف نُسجل ما حدث (Logs) للرجوع إليه عند أي تدقيق؟

نموذج عملي لحوكمة “ذكاء اصطناعي جدير بالثقة” في شركات الطاقة السعودية

الإجابة المباشرة: اجمع بين 4 طبقات: بيانات موثوقة، قيود وصول، تحقق آلي، ومراجعة بشرية مبنية على المخاطر.

عندما تحدّث بيتشاي عن أهمية “نظام معلومات غني” بدل الاعتماد على الذكاء الاصطناعي وحده، فهو يصف عمليًا ما تحتاجه شركات الطاقة: نظام بيئي للمعلومة.

1) طبقة “مصادر الحقيقة” (Systems of Record)

اجعل الذكاء الاصطناعي يستشهد ويستمد من:

  • أنظمة الصيانة EAM/CMMS
  • أنظمة التشغيل SCADA/DCS
  • أنظمة السلامة والبلاغات
  • مستودعات الوثائق المعتمدة (سياسات وإجراءات)

والأفضل أن يعمل عبر أسلوب RAG (استرجاع + توليد) حتى لا “يؤلف” من نفسه.

2) طبقة السياسات: ما المسموح وما الممنوع

ضع سياسات قصيرة وواضحة، مثل:

  1. لا يُسمح بإخراج أرقام أداء دون ربطها بتقرير نظامي.
  2. لا يُسمح بصياغة ردود تنظيمية دون مراجعة قانونية/امتثال.
  3. أي توصية تشغيلية يجب أن تمر على مهندس مسؤول.

3) طبقة التحقق: اختبارات تلقائية قبل التسليم

أمثلة مفيدة:

  • كشف التعارض: إذا قال النموذج إن الإنتاج “زاد” بينما لوحة البيانات تُظهر انخفاضًا، يتم إيقاف الرد.
  • التحقق من الاقتباسات: لا تُعرض إجابة إلا إذا كانت تتضمن مرجعًا داخليًا.
  • قوالب ثابتة للتقارير (حتى لا تُهمل بنودًا إلزامية).

4) طبقة البشر: مراجعة مبنية على مستوى المخاطر

لا تُراجع كل شيء بنفس الدرجة. اعتمد مصفوفة بسيطة:

  • محتوى داخلي منخفض المخاطر: مراجعة سريعة.
  • محتوى يؤثر على السلامة/الامتثال/السمعة: مراجعة مزدوجة وتوقيع.

عبارة أحب استخدامها مع الفرق: “الذكاء الاصطناعي يكتب بسرعة… ونحن نتحمل المسؤولية.”

أسئلة شائعة داخل شركات النفط والغاز (وإجابات مباشرة)

هل الذكاء الاصطناعي مناسب لتقارير الحوادث والسلامة؟

نعم، لكن لتسريع التلخيص والتصنيف فقط، وليس لإصدار أحكام سبب جذري دون أدلة. اجعل النموذج يربط كل سطر بمرجع من التقرير.

كيف نمنع “الهلاوس” في المحتوى؟

تقل كثيرًا عندما:

  • تمنع الإجابات غير المستندة إلى مصادر داخلية
  • تضيف حقولًا إلزامية: المصدر + التاريخ + المالك
  • تستخدم نطاقًا معرفيًا محدودًا بدل إنترنت مفتوح

هل الشفافية تُبطئ العمل؟

نعم قليلًا في البداية، لكنها تمنع “كلفة التصحيح” لاحقًا. في الطاقة، كلفة التصحيح عادة أعلى بكثير من كلفة التحقق.

خطة 30 يومًا لتطبيق ذكاء اصطناعي موثوق في الطاقة السعودية

الإجابة المباشرة: ابدأ بحالات استخدام آمنة، ثم ثبّت الحوكمة، وبعدها وسّع بالتدريج.

  1. الأسبوع 1 (01–07/01/2026): اختر حالتي استخدام منخفضتي المخاطر (تلخيص اجتماعات، مسودات تحديثات).
  2. الأسبوع 2 (08–14/01/2026): عرّف مصادر الحقيقة وربطها (وثائق معتمدة + لوحات بيانات داخلية).
  3. الأسبوع 3 (15–21/01/2026): طبّق سياسات المسموح/الممنوع + نماذج جاهزة للتقارير.
  4. الأسبوع 4 (22–31/01/2026): جرّب حالة استخدام متوسطة المخاطر (تقرير أداء/تواصل أصحاب مصلحة) مع تحقق ومراجعة.

إذا نجحت هذه الدورة، ستكتشف شيئًا مهمًا: الثقة لا تأتي من “ذكاء” النموذج وحده، بل من تصميم النظام حوله.

خطوة أخيرة قبل أن تعتمد الذكاء الاصطناعي على نطاق واسع

الرسالة التي خرجت من حديث بيتشاي لا تعني “ابتعدوا عن الذكاء الاصطناعي”. تعني: لا تخلطوا بين السرعة والحقيقة. وفي قطاع الطاقة والنفط والغاز في المملكة العربية السعودية، هذا الفرق يحدد جودة القرار، وسلامة الفريق، وثقة أصحاب المصلحة.

إذا كنت تقود تحولًا رقميًا أو فريق تواصل أو تشغيل، ابدأ بالسؤال التالي داخل شركتك: ما الذي يجب أن يظل “مصدر الحقيقة” لدينا… وما الذي يمكن للذكاء الاصطناعي أن يساعدنا فيه دون أن يضللنا؟

إن رغبت، شاركني نوع النظام لديك (تشغيل/صيانة/اتصال مؤسسي)، وسأقترح 5 حالات استخدام مناسبة مع ضوابط الحوكمة لكل حالة—بدون تعقيد وبطريقة قابلة للتنفيذ.