دليل عملي لبناء الثقة في الذكاء الاصطناعي بقطاع الطاقة السعودي: حوكمة، تحقق بشري، ومؤشرات قابلة للقياس دون ثقة عمياء.

الثقة في الذكاء الاصطناعي بقطاع الطاقة السعودي: بلا سذاجة
أخطر جملة ممكن تسمعها داخل غرفة التحكم أو مركز عمليات الحقول ليست “النظام تعطّل”… بل “النموذج قال كذا، خلّنا نمشي عليه”. في قطاع الطاقة والنفط والغاز في السعودية، الذكاء الاصطناعي صار حاضرًا في التنبؤ بالأعطال، تحسين الإنتاج، مراقبة السلامة، وحتى كتابة التقارير. لكن ما قاله سوندار بيتشاي (الرئيس التنفيذي لألفابت) في 18/11/2025 يصلح كقاعدة تشغيل: لا تثق عميانيًا بكل ما يقوله الذكاء الاصطناعي.
الفكرة ليست تشكيكًا في التقنية. بالعكس—أنا من أكثر المؤمنين بأن الذكاء الاصطناعي قادر على رفع الكفاءة وتقليل التكاليف ودعم قرارات أسرع. لكن الواقع العملي؟ نماذج الذكاء الاصطناعي تخطئ، وقد تُقدّم إجابات تبدو واثقة ومصاغة بإتقان… لكنها غير دقيقة. وهذا بالضبط ما يجعل “الثقة” ملفًا تشغيليًا لا ملفًا إعلاميًا.
ضمن سلسلة “كيف تُحوّل الذكاء الاصطناعي قطاع الطاقة والنفط والغاز في المملكة العربية السعودية”، هذا المقال يضع إطارًا واضحًا: كيف نستفيد من الذكاء الاصطناعي دون أن نُسلّم له مفاتيح القرار، وكيف نبني حوكمة ذكاء اصطناعي ترفع الثقة لدى الإدارة والمشغّلين والمنظمين وأصحاب المصلحة.
لماذا التحذير من الثقة العمياء مهم في النفط والغاز؟
الجواب المباشر: لأن خطأً “صغيرًا” في إجابة نموذج قد يتحوّل إلى خسارة إنتاج، توقف مفاجئ، حادث سلامة، أو قرار استثماري خاطئ.
في القطاعات الخدمية، قد يعني الخطأ فقرة غير دقيقة في تقرير. في الطاقة، قد يعني:
- توصية خاطئة بتأجيل صيانة لمعدة دوّارة حرجة (توربين/ضاغط) لأن النموذج “لم يرَ مشكلة”.
- تفسير غير صحيح لقراءة حسّاس بسبب بيانات تدريب غير ممثلة لظروف الحقل في الصيف أو أثناء الذروة.
- تلخيص آلي لتقرير امتثال بيئي فيه رقم انبعاثات غير مطابق.
هنا تظهر نقطة بيتشاي: النماذج عرضة للأخطاء ويجب استخدامها مع أدوات أخرى وليس بدلًا عنها. في بيئة السعودية، حيث تتسارع مبادرات التحول الرقمي وربط العمليات بالبيانات، يصبح السؤال العملي: كيف نُحوّل الذكاء الاصطناعي إلى مساعد موثوق دون أن يتحول إلى “حقيقة رسمية”؟
أين يحدث الخطأ عادة؟ (ليس في مكان واحد)
أكثر ثلاثة مصادر للأخطاء التي أراها تتكرر في مشاريع الذكاء الاصطناعي للطاقة:
- جودة البيانات: حساسات غير معايرة، فجوات في السجلات، أو تغيّر في طريقة القياس عبر الزمن.
- السياق التشغيلي: النموذج يتعلم نمطًا “طبيعيًا” ثم تأتي ظروف غير اعتيادية (إيقاف/تشغيل، عواصف رملية، تغيير خام/مزيج غاز) فيرتبك.
- طريقة الاستخدام: الفريق يتعامل مع مخرجات النموذج كأنها قرار، بدل أن تكون إشارة تحتاج تحقق.
درس بيتشاي بلغة العمليات: الذكاء الاصطناعي مساعد… وليس مرجعًا وحيدًا
الجواب المباشر: الذكاء الاصطناعي ممتاز في التجميع، الاقتراح، والكتابة—وأضعف عندما نطلب منه أن يكون “حَكم حقيقة” بلا مصادر واضحة.
بيتشاي أشار إلى أهمية وجود “منظومة معلومات غنية” بدل الاعتماد على الذكاء الاصطناعي وحده. في الطاقة، هذه المنظومة تعني عمليًا:
- بيانات تشغيل لحظية (SCADA/DCS) + تاريخ أعطال + سجلات صيانة.
- معايير هندسية وإجراءات تشغيل قياسية (SOPs).
- أنظمة إدارة أصول (EAM/CMMS) وتوثيق يعتمد المراجعة.
- خبرة مهندسين ومشغّلين يعرفون “سلوك المعدة” خارج الأرقام.
جملة تصلح كقاعدة: أي توصية من الذكاء الاصطناعي لا تمر عبر مصدر بيانات واضح ومراجعة بشرية في القرارات الحرجة، ليست توصية تشغيلية—هي مجرد اقتراح نصي.
فرق مهم: “ذكاء اصطناعي للمحتوى” vs “ذكاء اصطناعي للتشغيل”
داخل شركات الطاقة، هناك مساران غالبًا يختلطان:
- ذكاء اصطناعي للمحتوى والاتصال: تلخيص تقارير، صياغة تحديثات، الرد على استفسارات أصحاب المصلحة.
- ذكاء اصطناعي للتشغيل: تنبؤ أعطال، تحسين رفع اصطناعي، تحسين حقن، كشف تسرب، إدارة طاقة.
المسار الأول يتحمل نسبة خطأ أعلى إن وُضعت ضوابط للمراجعة. المسار الثاني يتطلب انضباطًا أكبر لأن أثره مادي وسلامي.
كيف تبني شركات الطاقة السعودية “ثقة قابلة للقياس” في الذكاء الاصطناعي؟
الجواب المباشر: الثقة ليست شعورًا—هي مؤشرات + ضوابط + شفافية.
إذا أردت إطارًا عمليًا قابلًا للتنفيذ خلال 90 يومًا، هذا ما يعمل عادة:
1) حوكمة واضحة: من يملك النموذج؟ ومن يراجع؟
عيّن أدوارًا محددة:
- مالك المنتج (Product Owner): يحدد الاستخدام المقبول للنموذج.
- مالك المخاطر (Risk Owner): يضع حدود القرارات التي لا يُسمح للنموذج بالتأثير فيها دون تصعيد.
- فريق تحقق (Validation): يختبر الأداء قبل الإطلاق وبعده.
قاعدة عملية: لا تطلق نموذجًا في قرار تشغيلي قبل وجود “خطة رجوع” واضحة (Rollback) وإجراءات فشل آمنة.
2) قياس الدقة بالطريقة الصحيحة (وليس بدقة عامة)
في النفط والغاز، “الدقة” كلمة مضللة إذا لم تربطها بسيناريوهات:
- ما نسبة الإنذارات الكاذبة في كشف التسرب؟
- ما نسبة الإخفاق في الاكتشاف للأعطال المبكرة؟
- ما زمن الاستجابة المقبول؟
الأفضل تعريف مؤشرات مثل:
- معدل الإنذار الكاذب لكل 1000 ساعة تشغيل.
- نسبة الاكتشاف المبكر قبل الفشل بـ 7 أيام/14 يومًا.
- أثر التوصيات على OEE أو تقليل التوقف غير المخطط.
3) الشفافية: “لماذا قال النموذج هذا؟”
حتى لو لم يكن النموذج قابلاً للتفسير بالكامل، لا بد من توفير حد أدنى:
- ما البيانات التي اعتمد عليها؟
- ما مستوى الثقة؟
- ما البدائل؟
في غرف العمليات، واجهة المستخدم أهم من النموذج نفسه. عرض مخرجات جميلة بلا تفسير يخلق ثقة زائفة.
4) التحقق البشري حسب مستوى الخطورة (Human-in-the-loop)
قسّم القرارات إلى ثلاث درجات:
- منخفضة الخطورة: النموذج ينفّذ مع تسجيل ومراجعة لاحقة.
- متوسطة: النموذج يقترح، والبشر يوافقون.
- عالية (سلامة/إيقاف/ضغط/حرارة حرجة): النموذج لا يقرر—فقط يرفع إشارات مدعومة ببيانات.
هذا يحقق معادلة بيتشاي: “سريع ومسؤول في نفس الوقت”.
الذكاء الاصطناعي والاتصال مع أصحاب المصلحة: لا تبنِ الثقة على نص منمّق
الجواب المباشر: استخدام الذكاء الاصطناعي في التقارير والبيانات العامة مفيد، لكن أي رقم أو ادعاء يجب أن يكون قابلاً للتتبع.
في السعودية، هناك حساسية عالية (وصحية) تجاه الرسائل المتعلقة بـ:
- السلامة المهنية
- الانبعاثات والاستدامة
- الامتثال التنظيمي
- موثوقية الإمداد
إذا استخدمت فرق الاتصال المؤسسي أو علاقات المستثمرين نماذج توليدية لتلخيص أداء أو صياغة إفصاح، فالأمان الحقيقي يأتي من خطوات بسيطة:
- لا تسمح للنموذج بابتكار أرقام أو نسب.
- اربط كل فقرة بمصدر داخلي معتمد (تقرير، لوحة بيانات، سجل).
- طبّق “مراجعة ثنائية”: خبير موضوع + خبير امتثال.
عبارة قصيرة مفيدة: كل جملة يكتبها الذكاء الاصطناعي عن السلامة والبيئة يجب أن تكون “قابلة للتدقيق” مثلها مثل أي رقم مالي.
ماذا عن “كشف المحتوى المُولّد”؟ ولماذا يهم الطاقة؟
بيتشاي أشار إلى تقنيات تساعد على اكتشاف ما إذا كانت الصورة مولدة بالذكاء الاصطناعي. في قطاع الطاقة، هذا له بعدان:
- حماية السمعة: مقاومة الشائعات أو الصور المفبركة المرتبطة بالحوادث.
- أمن المعلومات: منع استخدام صور/وثائق مولدة لتزوير بلاغات داخلية أو موافقات.
وجود سياسة داخلية للتحقق من الوسائط قبل نشرها أو اعتمادها، صار جزءًا من إدارة المخاطر الرقمية.
أسئلة شائعة داخل الشركات: إجابات مباشرة
هل نوقف استخدام الذكاء الاصطناعي لأن فيه أخطاء؟
لا. الصحيح هو تغيير طريقة الاستخدام: من “الاعتماد” إلى “المساندة”، ومن “الثقة العمياء” إلى “الثقة المقاسة”.
ما أسرع خطوة ترفع الثقة خلال شهر؟
ابدأ بـ سياسة منع الهلوسة الرقمية في المحتوى: لا أرقام بلا مصدر، لا توصيات سلامة بلا مراجعة، وتوثيق لكل مخرج.
أين ينجح الذكاء الاصطناعي أكثر اليوم في النفط والغاز؟
ينجح جدًا في:
- تلخيص سجلات الصيانة وتحويلها إلى أسباب جذرية مقترحة.
- تصنيف البلاغات والأعطال وتوجيهها للفريق المناسب.
- التنبؤ بالمشاكل “المتكررة” عندما تتوفر بيانات تاريخية جيدة.
ما الخطوة التالية لشركتك؟ (خارطة طريق قصيرة)
الجواب المباشر: ابدأ بنطاق ضيق، ضع ضوابط قوية، ثم وسّع.
جرّب هذا التسلسل العملي:
- حدد حالتي استخدام: واحدة للمحتوى (تقارير/تلخيص) وواحدة للتشغيل (تنبؤ/تحسين).
- ضع حدود قرار: متى يمنع على النموذج أن يعطي توصية تنفيذية؟
- أنشئ لوحة مؤشرات ثقة: أخطاء، إنذارات كاذبة، حالات فشل، وأثر مالي.
- ادرب الفريق على “طريقة السؤال” وقراءة المخرجات: الذكاء الاصطناعي يحتاج مشغّلًا ذكيًا.
إذا كان هدفك في 2026 هو زيادة الاعتماد على الأتمتة والتحليلات داخل أصول الطاقة، فالثقة ليست رفاهية. هي شرط تشغيل.
والسؤال الذي يستحق أن يُطرح في اجتماعك القادم: هل نملك اليوم نظامًا يضمن أن الذكاء الاصطناعي يساعدنا على اتخاذ قرار أفضل… أم أنه يضيف طبقة جديدة من المخاطر بصمت؟