تحذير بيتشاي من الثقة العمياء بالذكاء الاصطناعي مهم لقطاع الطاقة السعودي. تعرّف على ضوابط عملية للشفافية والحوكمة قبل الاعتماد التشغيلي.

الثقة بالذكاء الاصطناعي في طاقة السعودية: بلا سذاجة
قبل أسابيع، خرج تحذير واضح على لسان سوندار بيتشاي: لا تثق بما يقوله الذكاء الاصطناعي ثقة عمياء لأنه «معرّض للأخطاء». الكلام يبدو بديهياً لو كنا نستخدم chatbot لكتابة قصيدة أو تلخيص مقال. لكن في قطاع الطاقة والنفط والغاز في المملكة العربية السعودية، الخطأ ليس «إحراجاً»… الخطأ قد يعني توقف إنتاج، حادث سلامة، قرار استثماري بمئات الملايين، أو رسالة غير دقيقة لأصحاب المصلحة.
وهنا بالضبط تتقاطع رسالة بيتشاي مع سؤال عملي يواجهه قادة الطاقة اليوم: كيف نستفيد من الذكاء الاصطناعي لرفع الكفاءة، وأتمتة العمليات، وتحسين التواصل—من دون أن نحول النظام إلى «صندوق أسود» يقرر بدلاً عنا؟
الجملة التي أكررها دائماً مع الفرق التشغيلية: الذكاء الاصطناعي مساعد ممتاز… لكنه شاهد غير موثوق إذا تركته وحده.
لماذا تحذير “لا تثق عمياناً” يهم قطاع النفط والغاز؟
السبب المباشر: الذكاء الاصطناعي قد يُنتج معلومات تبدو صحيحة وهي غير ذلك. نماذج اللغة قادرة على صياغة إجابات واثقة حتى عندما تكون البيانات ناقصة أو السياق ملتبس. في قطاعات حساسة—مثل محطات المعالجة، الحقول، المصافي، وسلاسل الإمداد—الثقة العمياء تتحول بسرعة إلى مخاطر تشغيلية.
ثلاث صور للأخطاء عندما تدخل الذكاء الاصطناعي غرفة التحكم
- هلوسة معرفية (Hallucination): النموذج “يخترع” سبباً لعطل مضخة أو يرجّح إجراء صيانة لا يتوافق مع كتيّب المصنع.
- انحياز سياقي: يعطي توصية صحيحة في مصنع A لكنها خاطئة في مصنع B بسبب اختلاف المواصفات أو ظروف التشغيل.
- تلخيص مضلل: يلخص تقارير السلامة أو محاضر الحوادث بطريقة تُسقط تفصيلاً حاسماً.
اللافت في كلام بيتشاي أنه لم يقل “لا تستخدموا الذكاء الاصطناعي”، بل قال استخدموه مع أدوات أخرى وضمن “نظام معلومات غني” يثبّت الحقائق. هذه هي النقطة التي يجب أن تبنى عليها استراتيجية الذكاء الاصطناعي في الطاقة.
أين ينجح الذكاء الاصطناعي في الطاقة السعودية… وأين يجب كبحه؟
القاعدة العملية: كلما اقترب الاستخدام من السلامة والقرار الآني (real-time)، زادت الحاجة للضبط والحوكمة. وكلما كان الاستخدام “مسانداً” (كتابة، تنظيم، بحث داخلي)، كان العائد سريعاً والمخاطر أقل.
استخدامات عالية العائد ومنخفضة المخاطر (ابدأ من هنا)
- إنشاء المحتوى الفني والتنظيمي: مسودات سياسات، إجراءات تشغيل قياسية، ومذكرات داخلية—مع مراجعة بشرية إلزامية.
- مساعد معرفة داخلي: البحث في آلاف المستندات الفنية، عقود الموردين، وسجلات الصيانة لإظهار “الأقرب للصواب” بسرعة.
- خدمة أصحاب المصلحة: ردود أولية للاستفسارات المتكررة (ESG، الامتثال، المحتوى التعريفي) شرط وجود قوالب معتمدة ومصادر داخلية.
استخدامات عالية العائد لكنها عالية الحساسية (تحتاج ضوابط صارمة)
- التنبؤ بالأعطال (Predictive Maintenance): ممتاز لكنه يتطلب بيانات أجهزة استشعار موثوقة ومعايرة مستمرة ونماذج قابلة للتتبع.
- تحسين الطاقة وكفاءة الاستهلاك: توصيات الذكاء الاصطناعي يجب أن تُختبر ضمن حدود تشغيل آمنة وأن تُقارن بخط أساس (baseline).
- دعم قرارات الإنتاج والتخطيط: لا يُسمح للنموذج أن يكون “المقرر النهائي”، بل “مُقترِح” مع تفسير.
استخدامات لا أنصح أن تكون “ذاتية القرار” حالياً
أي قرار يتعلق مباشرة بسلامة الأشخاص أو يغيّر إعدادات تحكم حرجة دون تحقق مستقل. الواقع؟ هذه مخاطرة لا تُبرَّر حتى لو كان النموذج دقيقاً 99%—لأن 1% هنا مكلف.
الشفافية ليست رفاهية: كيف تبني الثقة في الذكاء الاصطناعي داخل المنشآت؟
الثقة في الذكاء الاصطناعي تُبنى بالأدلة، لا بالوعود. وفي شركات الطاقة، الأدلة تعني: مصدر معلومة واضح، قابلية تدقيق، ومسؤولية محددة عندما يحدث خطأ.
1) طبّق مبدأ “الاستشهاد بالمصدر” داخل الشركة
عندما يجيب المساعد الذكي، يجب أن يظهر:
- من أي وثيقة داخلية أخذ المعلومة
- رقم الإصدار/التاريخ
- الفقرة أو الصفحة ذات الصلة
هذا يحوّل الذكاء الاصطناعي من “مُؤلّف” إلى “مُفهرِس ذكي”. والفرق بينهما كبير.
2) فرّق بين ثلاثة أنواع من المخرجات
- حقائق: أرقام وإجراءات ومعايير—لا تُقبل إلا إذا كانت مرتبطة بمصدر.
- تحليل: ربط أسباب محتملة—يُعرض كاحتمالات مع وزن ثقة.
- صياغة: تلخيص وكتابة—يسمح بها أوسع نطاقاً لأنها لا تغيّر الواقع التشغيلي بذاتها.
3) اجعل “الإنسان في الحلقة” سياسة لا شعاراً
“Human-in-the-loop” في الطاقة يعني:
- توقيعات اعتماد واضحة قبل تطبيق توصية
- سجل مراجعات (audit trail)
- مسار تصعيد عند التعارض بين رأي النموذج وخبرة الفريق
إذا لم تستطع تحديد من يملك قرار الإيقاف أو التفعيل، فالنظام غير جاهز للإنتاج.
نموذج عملي لحوكمة الذكاء الاصطناعي في النفط والغاز (مناسب لفرق التشغيل والاتصال)
الفكرة: بدلاً من نقاشات عامة عن الأخلاقيات، ضع مصفوفة قرار بسيطة تُستخدم يومياً.
مصفوفة 4 أسئلة قبل اعتماد أي حالة استخدام
- ما مستوى التأثير؟ (محتوى/عمليات/سلامة/إنتاج)
- ما درجة التفسير المطلوبة؟ هل نحتاج شرحاً يمكن تدقيقه؟
- ما جودة البيانات؟ هل البيانات كاملة؟ معايرة؟ حديثة؟
- ما خطة الفشل الآمن؟ ماذا يحدث إذا أخطأ النموذج؟
وبناءً عليها، صنّف الحالة:
- مسموح تلقائياً: إنشاء مسودات وتلخيصات داخلية.
- مسموح بمراجعة: تقارير تحليلية وتوصيات تحسين.
- مقيّد: توصيات تؤثر على الإنتاج أو الصيانة.
- محظور تلقائياً: قرارات سلامة حرجة بدون تحقق مستقل.
أين يدخل الأمن السيبراني؟
بيتـشاي أشار إلى الاستثمار في أمن الذكاء الاصطناعي ووسائل كشف المحتوى المولّد. في الطاقة، هذا لا يُترك كملف جانبي. لأن المخاطر تشمل:
- تلاعب بالمطالبات والتقارير عبر محتوى مُولّد يصعب تمييزه
- تسميم البيانات (Data Poisoning) بما يغيّر توصيات النماذج
- تسريب معلومات حساسة عبر إدخال بيانات داخلية في أدوات غير مُدارة
الإجراء الواقعي: اجعل أدوات الذكاء الاصطناعي داخل بيئة مؤسسية مُتحكم بها مع سياسات إدخال/إخراج بيانات واضحة.
أمثلة قريبة من الواقع: كيف يبدو الاستخدام المسؤول على الأرض؟
هذه أمثلة نمطية أراها قابلة للتطبيق في السعودية دون تعقيد مبالغ فيه:
مثال 1: مساعد صيانة “مُسنَد بالمستندات”
- الفني يكتب وصف العطل.
- المساعد يعرض: إجراءات السلامة ذات الصلة + أقرب 3 أسباب محتملة + قطع الغيار الشائعة.
- كل عنصر مرتبط بمصدر داخلي.
- القرار النهائي يبقى للفريق، وتُحفظ جلسة الاستعلام ضمن سجل.
النتيجة المتوقعة: تقليل وقت البحث، ورفع اتساق تطبيق الإجراءات.
مثال 2: تحسين تواصل أصحاب المصلحة بدون مبالغة
في موسم إعداد التقارير السنوية (وهو شائع في نهاية العام مثل ديسمبر 2025)، فرق الاتصال تُرهقها إعادة صياغة نفس الرسائل. هنا الذكاء الاصطناعي ممتاز إذا كان يعمل على:
- قوالب رسائل معتمدة
- حقائق مرتبطة بمصادر داخلية
- طبقة مراجعة قانونية/امتثال قبل النشر
النتيجة المتوقعة: سرعة أعلى واتساق لغوي، مع تقليل مخاطر التصريحات غير الدقيقة.
مثال 3: مركز عمليات يطلب “توصية” لا “أمر”
بدلاً من أن يقول النموذج: “أوقف الضاغط الآن”، يقول:
- “هناك نمط اهتزاز غير معتاد خلال آخر 6 ساعات”
- “أقترح فحص X ثم Y ضمن إجراء Z”
- “مستوى الثقة: متوسط”
هذا أسلوب بسيط، لكنه يغير الثقافة من طاعة الآلة إلى استخدامها كأداة.
أسئلة شائعة داخل الشركات (وإجابات مباشرة)
هل يمكن الاعتماد على الذكاء الاصطناعي لاتخاذ قرار تشغيلي؟
نعم، بشرطين: أن تكون التوصية قابلة للتفسير والتدقيق، وأن توجد طبقة تحقق مستقلة قبل التنفيذ في الحالات الحساسة.
ما الفرق بين “الذكاء الاصطناعي للبحث” و“الذكاء الاصطناعي للقرار”؟
الأول يسرّع الوصول للمعلومة. الثاني يغيّر الواقع التشغيلي. المخاطر تقفز قفزة كبيرة عند الانتقال للنوع الثاني.
ما أسرع طريقة لبدء مشروع ناجح؟
ابدأ من “المعرفة الداخلية”: فهرسة الوثائق والإجراءات وربط الإجابات بالمصادر. ستربح وقتاً سريعاً وتضع أساس الثقة.
خطوة عملية الآن: كيف تتحرك شركات الطاقة في 2026؟
إذا كان هذا المقال جزءاً من سلسلة “كيف تُحوّل الذكاء الاصطناعي قطاع الطاقة والنفط والغاز في المملكة العربية السعودية”، فهذه الحلقة تحديداً تقول: التحول لا ينجح بلا ثقة—والثقة لا تُمنح، تُكتسب.
ابدأ بخارطة طريق قصيرة من 30 يوماً:
- اختر حالتي استخدام منخفضتي المخاطر (مساعد وثائق + مسودات تقارير).
- ضع سياسة “الإجابة مع مصدر” كشرط إطلاق.
- عرّف من يراجع ومن يعتمد، واكتبها في إجراء رسمي.
- قِس الوقت الموفر والأخطاء التي تم التقاطها قبل النشر/التنفيذ.
الذكاء الاصطناعي سيأخذ مكانه في الطاقة السعودية—هذا شبه محسوم. السؤال الذي يستحق أن يبقى مفتوحاً: هل سنبنيه كمنظومة يمكن تدقيقها والثقة بها، أم كاختصار سريع يخلق مخاطر جديدة؟