ذكاء اصطناعي آمن للطاقة السعودية: ابتكار بلا مخاطر

كيف تُحوّل الذكاء الاصطناعي قطاع الطاقة والنفط والغاز في المملكة العربية السعوديةBy 3L3C

تحذيرات إساءة استخدام الذكاء الاصطناعي تعني شيئًا عمليًا لقطاع الطاقة السعودي: ابتكر بسرعة، لكن بحوكمة وأمن صارمين. اكتشف درابزينات تطبيقية وخطة 30-60-90.

أمن الذكاء الاصطناعيحوكمة البياناتالنفط والغازالأمن السيبرانيالأنظمة الصناعية OTرؤية السعودية 2030
Share:

Featured image for ذكاء اصطناعي آمن للطاقة السعودية: ابتكار بلا مخاطر

ذكاء اصطناعي آمن للطاقة السعودية: ابتكار بلا مخاطر

قبل أشهر، خرجت تصريحات لافتة من إريك شميدت—الرئيس التنفيذي السابق لـGoogle—يحذّر فيها من “المخاطر القصوى” للذكاء الاصطناعي حين يقع في الأيدي الخطأ، وصولًا إلى سيناريوهات تتعلق بالإرهاب أو الدول المارقة. هذا الكلام ليس مادة للجدل التقني فقط؛ هو تنبيه عملي لقطاعات تُدار فيها السلامة والأمن كأولوية يومية… وفي مقدمتها قطاع الطاقة والنفط والغاز.

في السعودية، الذكاء الاصطناعي يتحرك بسرعة داخل عمليات الاستكشاف والإنتاج، والصيانة التنبؤية، وسلاسل الإمداد، وإدارة المرافق، وحتى التواصل مع أصحاب المصلحة. لكن كل خطوة توسّع الاعتماد على البيانات والنماذج والخدمات السحابية تفتح بابًا جديدًا: باب المخاطر السيبرانية وسوء الاستخدام. الواقع؟ الابتكار الحقيقي هنا ليس “استخدام الذكاء الاصطناعي”، بل استخدامه بشكل مسؤول ومؤمّن وقابل للتدقيق.

هذا المقال ضمن سلسلة «كيف تُحوّل الذكاء الاصطناعي قطاع الطاقة والنفط والغاز في المملكة العربية السعودية»، ويضع تحذيرات إساءة استخدام الذكاء الاصطناعي في سياق عملي: كيف تبني شركات الطاقة السعودية قدرات ذكاء اصطناعي ترفع الكفاءة وتقلل التكاليف، من دون تعريض البنية التحتية الحيوية لمخاطر غير محسوبة.

لماذا تحذير “إساءة استخدام الذكاء الاصطناعي” يهم قطاع الطاقة؟

الجواب المباشر: لأن الطاقة تُعد هدفًا عالي القيمة، وأي خلل فيها لا يُقاس فقط بوقت توقف أو خسارة مالية، بل قد يتصل بالسلامة العامة، والبيئة، واستمرارية الإمدادات.

تصريحات شميدت ركّزت على أن الذكاء الاصطناعي قد يُستخدم لتصميم هجمات أشد تعقيدًا، أو لتسريع تطوير أدوات ضارة، أو للتأثير على أنظمة حديثة يعتمد عليها المجتمع. حين ننقل هذا التفكير إلى الطاقة، تظهر ثلاثة مسارات واقعية للخطر:

1) الذكاء الاصطناعي يرفع سقف الهجمات السيبرانية

المهاجم اليوم يستطيع استخدام نماذج توليدية لصياغة رسائل تصيّد مقنعة جدًا، أو كتابة شيفرات ضارة بسرعة، أو تخصيص الهجوم بناءً على معلومات عامة عن الموظفين والمقاولين. في بيئة تشغيلية مثل النفط والغاز—حيث تتداخل أنظمة الأعمال IT مع أنظمة التشغيل OT—يزداد التعقيد.

2) البيانات التشغيلية أصبحت “ذهبًا جديدًا”

الذكاء الاصطناعي في الصيانة التنبؤية أو تحسين الإنتاج يحتاج بيانات حساسة: اهتزازات المضخات، قراءات الضغط والحرارة، خرائط الأصول، أنماط الأعطال، وسجلات التوقف. إذا تسربت هذه البيانات، فهي لا تكشف أسرارًا تشغيلية فحسب، بل قد تساعد خصمًا على فهم نقاط الضعف.

3) النماذج نفسها قد تتحول إلى سطح هجوم

النموذج ليس “صندوقًا سحريًا”. يمكن تسميم البيانات المستخدمة في تدريبه، أو التلاعب بمدخلاته لإنتاج قرارات خاطئة، أو استخراج معلومات حساسة عبر أساليب استدراج (Prompt Injection) عند دمجه في أنظمة خدمة أو دعم فني داخلي.

جملة قابلة للاقتباس: في الطاقة، المخاطر لا تأتي فقط من “اختراق النظام”، بل من “إقناع النموذج” بإجابة خاطئة في لحظة حساسة.

أين يكسب الذكاء الاصطناعي داخل النفط والغاز في السعودية… وأين قد يخسر؟

الجواب المباشر: يكسب عندما يُربط بأهداف تشغيلية واضحة وحوكمة صارمة، ويخسر عندما يُنشر بسرعة كـ“ميزة” دون ضوابط، أو حين تُترك البيانات والنماذج بلا مراقبة.

مكاسب واضحة (إذا نُفذت صح)

في مشاريع الطاقة السعودية، أكثر الاستخدامات واقعية وعائدًا عادةً تتوزع على:

  • الصيانة التنبؤية: تقليل التوقفات غير المخطط لها عبر نماذج تتنبأ بالأعطال قبل وقوعها.
  • تحسين الإنتاج: تحسين ضبط المعلمات التشغيلية للمعدات، وتقليل الفاقد.
  • السلامة التشغيلية: رصد حالات عدم الالتزام بإجراءات السلامة عبر الرؤية الحاسوبية في المواقع.
  • إدارة سلاسل الإمداد: توقع الطلب، وتقليل المخزون الراكد، وتحسين التخطيط.
  • أتمتة الأعمال المكتبية: تلخيص التقارير، واستخراج البيانات من المستندات، وتحسين دعم فرق العمليات.

خسائر محتملة (إذا تم تجاهل الأمن)

المخاطر الأكثر شيوعًا التي رأيتها تتكرر عند إدخال الذكاء الاصطناعي في بيئات حساسة هي:

  1. نشر نموذج على بيانات غير مصنفة فيتسرّب ما لا يجب أن يغادر الشبكة.
  2. ربط النموذج بأنظمة تشغيل OT دون عزل كافٍ، فيصبح الجسر بين عالمين.
  3. اعتماد قرارات النموذج دون “إنسان في الحلقة” في سيناريوهات السلامة.
  4. غياب سجل تدقيق يجيب: من استخدم النموذج؟ وبأي بيانات؟ ولماذا اتخذ القرار؟

هذه ليست مخاوف نظرية. قطاع الطاقة في العالم شهد خلال السنوات الماضية ارتفاعًا في استهدافه سيبرانيًا، والذكاء الاصطناعي يضيف طبقة جديدة: تسريع المهاجم، وتعقيد الدفاع.

حوكمة الذكاء الاصطناعي في الطاقة: توازن بين الابتكار والرقابة

الجواب المباشر: أفضل نموذج حوكمة هو الذي يسرّع الاستخدام الآمن بدل أن يوقفه، ويُحوّل “الرقابة” إلى عملية تشغيلية واضحة بمؤشرات قياس.

شميدت دعا إلى إشراف حكومي على شركات التقنية، وحذّر من الإفراط في التنظيم الذي قد يخنق الابتكار. في قطاع النفط والغاز السعودي، النقاش يأخذ شكلًا مختلفًا قليلًا: الشركات لا تنتظر “قوانين عامة” فقط، لأنها تعمل أصلًا ضمن بيئات امتثال عالية. المطلوب هو حوكمة داخلية ذكية تترجم المخاطر إلى قرارات قابلة للتنفيذ.

ما الذي يجب أن يتضمنه إطار الحوكمة؟

إطار عملي—غير متخم بالبيروقراطية—عادةً يتضمن:

  • تصنيف حالات الاستخدام حسب الحساسية: (أعمال مكتبية) vs (تشغيل/سلامة/OT).
  • موافقة متعددة التخصصات: عمليات + أمن سيبراني + بيانات + قانوني/امتثال.
  • سياسة بيانات واضحة: ما الذي يُسمح للنموذج برؤيته؟ وما الذي يُحظر؟
  • معايير نموذجية: اختبارات الانحراف (Drift)، الدقة، الاستقرار، ومقاومة الاستدراج.
  • سجل تدقيق وتشغيل: Logs، تتبع الإصدارات، ومراجعات دورية.

جملة قابلة للاقتباس: التنظيم الذي ينفع الطاقة ليس “منع الذكاء الاصطناعي”، بل جعل استخدامه قابلًا للتفسير والتتبع والمساءلة.

سؤال يتكرر: هل نختار نموذجًا عامًا أم نموذجًا خاصًا؟

الجواب العملي:

  • للمهام العامة (كتلخيص مراسلات غير حساسة) قد يكفي نموذج عام مع ضوابط.
  • للبيانات التشغيلية الحساسة، الأفضل غالبًا نموذج خاص أو بيئة معزولة، أو على الأقل طبقة تحكم تمنع إرسال أي بيانات مصنفة.

“درابزين” عملي لأمن الذكاء الاصطناعي في شركات الطاقة السعودية

الجواب المباشر: ضع ضوابط تقنية وتشغيلية منذ اليوم الأول؛ لأن تعديلها بعد الانتشار مكلف ويؤثر على الثقة.

1) عزل الشبكات والحد الأدنى من الصلاحيات

  • افصل بيئات الذكاء الاصطناعي التي تتعامل مع بيانات تشغيلية عن الإنترنت قدر الإمكان.
  • طبّق Least Privilege: النموذج لا يحتاج كل شيء ليؤدي وظيفة واحدة.

2) حماية البيانات قبل النموذج

  • إزالة أو تشفير المعرفات الحساسة، وتطبيق سياسات DLP.
  • إدارة مفاتيح التشفير داخل المؤسسة، وتوثيق من يمكنه الوصول.

3) “إنسان في الحلقة” للسلامة والقرارات الحرجة

في سياقات مثل إيقاف خط، أو تغيير معلمة تشغيلية قد تؤثر على السلامة، اجعل الذكاء الاصطناعي مستشارًا لا “سائقًا آليًا”.

4) اختبارات هجوم مخصصة للذكاء الاصطناعي

أضف إلى اختبار الاختراق التقليدي اختبارات مثل:

  • Prompt Injection
  • Data Poisoning
  • Model Extraction
  • Hallucination Stress Tests

5) مراقبة الأداء والانحراف بمرور الوقت

النماذج تتدهور إذا تغيرت الظروف التشغيلية أو نوع البيانات. ضع مؤشرات مثل:

  • معدل الأخطاء
  • تغيّر توزيع البيانات
  • ارتفاع الحالات “غير الواثقة”

6) إدارة الموردين… لأن المخاطر قد تأتي من السلسلة

إذا كان لديك مزود منصة أو تكامل أو بيانات، اطلب بوضوح:

  • أين تُخزن البيانات؟
  • من يملك حقوق استخدامها؟
  • كيف يتم فصل بياناتك عن غيرك؟
  • ما آلية الاستجابة للحوادث؟

أمثلة استخدام “آمنة افتراضيًا” تصلح كبداية سريعة

الجواب المباشر: ابدأ بحالات استخدام ذات أثر واضح ومخاطر منخفضة، ثم توسع تدريجيًا.

إليك ثلاث أمثلة مناسبة لفرق النفط والغاز في السعودية—خصوصًا في نهاية 2025 حيث تتزايد برامج التحول الرقمي وتوقعات الكفاءة:

1) مساعد داخلي لتلخيص تقارير الصيانة (بيانات منقحة)

  • المدخلات: تقارير PDF بعد حذف المعرفات الحساسة.
  • المخرجات: ملخص أعطال متكررة، قائمة قطع غيار مقترحة، واتجاهات زمنية.
  • الضوابط: منع النسخ خارج الشبكة، وتسجيل كل طلب.

2) أتمتة إجراءات السلامة المكتبية (HSE)

  • تحويل السياسات إلى قوائم تحقق ديناميكية.
  • مساعدة الموظف على فهم الإجراء الصحيح دون أن يبتدع إجابات.
  • الضوابط: مكتبة مصادر معتمدة، وقيود على الإجابة خارج الوثائق (RAG مضبوط).

3) تحليل شكاوى المقاولين وسلاسل الإمداد

  • تصنيف الشكاوى، استخراج الأسباب، واقتراح مسار معالجة.
  • الضوابط: إخفاء أسماء الأفراد، وتحديد صلاحيات العرض حسب الدور.

هذه الأنواع تعطي قيمة ملموسة بسرعة، وتبني ثقة داخلية قبل نقل الذكاء الاصطناعي إلى مساحات OT الأكثر حساسية.

ماذا يفعل القادة الآن؟ خطة 30-60-90 يومًا

الجواب المباشر: لا تبدأ بشراء أدوات جديدة؛ ابدأ بتحديد المخاطر، والبيانات، والمسؤوليات.

خلال 30 يومًا

  1. جرد حالات الاستخدام الحالية والمخططة للذكاء الاصطناعي.
  2. تصنيف البيانات (تشغيلية/تجارية/حساسة).
  3. تعيين مالك حوكمة (AI Governance Owner) ومجموعة قرار مشتركة.

خلال 60 يومًا

  1. إطلاق مشروعين “منخفضي المخاطر” بقياس أثر واضح.
  2. إعداد سياسات: بيانات، صلاحيات، وسجل تدقيق.
  3. تدريب مختصر للموظفين على مخاطر التزييف والتصيد المدعوم بالذكاء الاصطناعي.

خلال 90 يومًا

  1. اختبار أمني مخصص للنماذج وواجهات الاستخدام.
  2. لوحة مؤشرات تشغيل للنماذج: جودة، انحراف، وحوادث.
  3. خطة توسع إلى حالات تشغيلية أكثر حساسية مع عزل أقوى.

خاتمة: الذكاء الاصطناعي في الطاقة… قوة تحتاج انضباطًا

تحذير شميدت من إساءة استخدام الذكاء الاصطناعي يضع نقطة مهمة على الطاولة: التقنية نفسها محايدة، لكن طريقة تبنيها ليست محايدة أبدًا. وفي قطاع الطاقة والنفط والغاز السعودي، حيث تُدار أصول حيوية وتعمل فرق كبيرة عبر سلاسل توريد طويلة، يصبح “الانضباط” جزءًا من الابتكار، لا عائقًا له.

إذا أردت أن تكسب من الذكاء الاصطناعي—خفض توقفات، رفع موثوقية، تحسين سلامة—فابدأ من السؤال الذي تتجنبه كثير من المشاريع: هل هذا الاستخدام آمن وقابل للتدقيق مثلما هو مفيد؟

ضمن سلسلة «كيف تُحوّل الذكاء الاصطناعي قطاع الطاقة والنفط والغاز في المملكة العربية السعودية»، الخطوة التالية المنطقية هي الانتقال من الحوكمة إلى التنفيذ: كيف تبني “مساعدًا مؤسسيًا” للفرق التشغيلية يعتمد على مصادر موثوقة ويمنع الهلوسة وتسرب البيانات؟ وهل لديك الاستعداد لقياس أثره بالأرقام لا بالانطباعات؟