دروس قيادية من مقولة «عندما يقول أحدهم لا يبدأ البيع» لتسريع تبنّي الذكاء الاصطناعي في بنوك وفنتك البحرين بخطة 90 يوماً وحالات استخدام عالية العائد.
قيادة الذكاء الاصطناعي في مالية البحرين: دروس من «لا»
أكثر جملة تُربك فرق التحوّل الرقمي ليست «ما نعرف كيف»، بل «لا». لا لأن المخاطر عالية. لا لأن الامتثال معقّد. لا لأن التجربة السابقة كانت سيئة. في مقابلة حديثة نُشرت بتاريخ 10/01/2026 مع القيادي المخضرم ديتمار سيرسدورفر (Dietmar Siersdorfer)، لفتتني عبارته التي تختصر عقلية مختلفة:
«عندما يقول أحدهم لا… يبدأ البيع».
أنا أرى هذه العبارة صالحة حرفياً لما يحدث الآن في قطاع الخدمات المالية والتكنولوجيا المالية في البحرين. لأن الذكاء الاصطناعي في البنوك وشركات الفنتك لا يتعثر بسبب نقص الأدوات، بل بسبب إدارة الرفض: رفض داخلي ناتج عن تجارب قديمة، ورفض تنظيمي مفهوم، ورفض من العملاء إذا شعروا بأن التقنية “تتلاعب” بهم.
هذه المقالة جزء من سلسلة «كيف يُحوّل الذكاء الاصطناعي قطاع الخدمات المالية والتكنولوجيا المالية في البحرين». سنستخدم دروس القيادة والتكيّف والابتكار الواردة في قصة سيرسدورفر—من العمل وسط فرق متعددة الجنسيات، إلى الواقعية التشغيلية، إلى تطبيقات الذكاء الاصطناعي في تشغيل التوربينات—ثم نترجمها إلى خطوات عملية تناسب البنوك البحرينية وشركات التكنولوجيا المالية التي تريد نتائج فعلية: نمو، كفاءة، وتجربة عميل أفضل.
«عندما تسمع لا»… لا تبدأ الجدال، ابدأ التصميم
الإجابة المباشرة: الرفض في مشاريع الذكاء الاصطناعي عادةً إشارة لوجود فجوة ثقة أو فجوة حوكمة أو فجوة قيمة—وليس إشارة لفشل الفكرة.
سيرسدورفر يقول إن المؤسسات الكبيرة تتجنب مناطق معيّنة بسبب خبرات سابقة. هذا ينطبق تماماً على المؤسسات المالية: بنك جرّب روبوت محادثة قبل سنوات فأخطأ في الردود؛ شركة فنتك حاولت أتمتة قرارات الائتمان فتعطلت بسبب جودة البيانات؛ إدارة مخاطر أوقفت نموذجاً لأنه غير قابل للتفسير.
حوّل «لا» إلى ثلاثة أسئلة عملية
بدلاً من أن تصبح «لا» نهاية النقاش، اجعلها بداية تشخيص سريع:
- هل “لا” بسبب المخاطر؟ إذاً تحتاج حوكمة: سياسات بيانات، مراجعات نموذج، وسجل تدقيق.
- هل “لا” بسبب عدم وضوح العائد؟ إذاً تحتاج نموذج قيمة: وقت خدمة أقل، تقليل احتيال، رفع التحويل.
- هل “لا” بسبب تجربة سابقة فاشلة؟ إذاً تحتاج إثبات جديد صغير: Pilot مضبوط بمؤشرات نجاح واضحة.
رأيي: أكثر ما يُهدَر في مشاريع الذكاء الاصطناعي ليس المال، بل الزمن. والتعامل الذكي مع «لا» هو اختصار الزمن عبر تصميم مسار يزيل سبب الرفض بدل الاصطدام به.
التكيّف الثقافي ليس “نعومة” إدارية… بل شرط لنجاح الذكاء الاصطناعي
الإجابة المباشرة: الذكاء الاصطناعي يفشل عندما يُفرض كنموذج عالمي واحد على كل فريق وكل سوق؛ وينجح عندما يُبنى كمنتج يتكيف مع الواقع المحلي وسلوك المستخدمين.
سيرسدورفر تعلّم في أول مهمة دولية له في ماليزيا أن القالب العالمي الواحد لا يعمل دائماً، وأن مزج وجهات النظر يدفع الأعمال للأمام. لاحقاً أدار فريقاً يضم أكثر من 80 جنسية في الإمارات—وتلك بيئة لا تنجح فيها “لغة واحدة” ولا أسلوب قيادة واحد.
في البحرين، التحدّي ليس تعدد الجنسيات فقط، بل تعدد العقليات داخل المؤسسة المالية: الامتثال، المخاطر، تقنية المعلومات، تجربة العميل، وقنوات الفروع. كل فريق يرى الذكاء الاصطناعي من نافذته. وإذا لم تُدار هذه الاختلافات بذكاء، يصبح المشروع ساحة شدّ وجذب.
كيف يبدو التكيّف الثقافي داخل بنك أو فنتك بحريني؟
- لغة الامتثال: أعطِهم قابلية تدقيق، سياسات حفظ بيانات، وضوابط خصوصية واضحة.
- لغة المخاطر: اعرض حدود النموذج (Guardrails) ونتائج اختبارات الانحياز والصلابة.
- لغة الأعمال: تحدث عن دورة حياة العميل، خفض التكلفة، وزيادة المبيعات.
- لغة خدمة العملاء: تحدث عن تقليل وقت الانتظار، ورفع حل المشكلة من أول تواصل.
جملة قابلة للاقتباس في الاجتماعات: الذكاء الاصطناعي ليس مشروع تقنية؛ هو تغيير في طريقة اتخاذ القرار.
الواقعية التشغيلية: ما ينقصنا ليس “نماذج أذكى” بل “تشغيل أضبط”
الإجابة المباشرة: أكبر قيمة للذكاء الاصطناعي في المالية تأتي من التشغيل المستقر، لا من العروض المبهرة.
في حديثه عن انتقال الطاقة، كان سيرسدورفر واقعياً: الحديث المثالي عن الاعتماد الكامل على المتجدّدات اصطدم بحقيقة تزويد الناس بالكهرباء واستقرار الشبكات. حتى أشار إلى حادثة انقطاع في إسبانيا العام الماضي وتأثير الترابط بين أجزاء الشبكة.
خذ الفكرة نفسها إلى الخدمات المالية: قد يبهرنا نموذج لغوي يكتب نصوصاً ممتازة، لكن المؤسسة تحتاج قبل ذلك إلى:
- بيانات نظيفة ومُعرَّفة (Data Definitions)
- مسارات موافقة واضحة (Approvals)
- مراقبة أداء مستمرة للنماذج (Model Monitoring)
- خطط تراجع عند الخطأ (Fallback)
مثال مالي مباشر: التنبؤ بالتعثّر الائتماني
ليس المطلوب نموذجاً “معجزة” يتنبأ بكل شيء. المطلوب نظام يعمل يومياً:
- يُحدّث البيانات بانتظام
- يشرح لماذا رفَع المخاطر (Feature importance / Reason codes)
- يرسل توصيات قابلة للتنفيذ لفريق التحصيل
- يثبت أثره على مؤشرات مثل نسبة التعثر وتكلفة التحصيل خلال 90 يوماً
الواقعية التشغيلية تعني أنك تقيس نجاح الذكاء الاصطناعي بما يُحسّن “الخدمة” و“القرار”—لا بما يُبهر العرض التقديمي.
من توربينات جبل علي إلى بنوك البحرين: أين تعمل تطبيقات الذكاء الاصطناعي فعلاً؟
الإجابة المباشرة: أكثر تطبيقات الذكاء الاصطناعي نضجاً هي التي تُحسّن نظاماً قائماً عبر تحسينات صغيرة متراكمة—تماماً كما في أنظمة التحكم الصناعية.
سيرسدورفر ذكر مثالاً هندسياً واضحاً: أنظمة تحكم ذكية بالذكاء الاصطناعي تُحسّن تشغيل توربينات الغاز، تقلّل استهلاك الوقود وتخفض الانبعاثات، بما فيها NOx.
ترجمة ذلك للمالية في البحرين: لا تبدأ بالمهام “الأكثر طموحاً” مثل استبدال موظف خدمة العملاء أو اتخاذ قرار ائتمان كامل تلقائياً. ابدأ حيث العائد سريع والمخاطر محسوبة، ثم وسّع.
5 حالات استخدام عالية العائد في البحرين (بنوك وفنتك)
-
مكافحة الاحتيال في الزمن الحقيقي
- نماذج تكتشف أنماطاً غير طبيعية في المدفوعات والبطاقات
- تقلّل الإنذارات الكاذبة عبر التعلم من قرارات المحققين
-
مساعد خدمة العملاء متعدد القنوات (Chat/WhatsApp/App)
- يجيب على أسئلة الرصيد، الرسوم، حالة الطلب
- يحوّل للمستشار البشري عند مسائل حسّاسة
-
تحسين قبول العملاء (Onboarding) وامتثال KYC
- قراءة آلية للوثائق، تطابق الأسماء، كشف التلاعب
- تقليل زمن فتح الحساب من أيام إلى ساعات (عندما تتكامل الأنظمة)
-
تخصيص العروض المالية (Next Best Offer)
- اقتراح منتجات بناء على سلوك الإنفاق والادخار
- قياس أثره عبر معدل التحويل وليس “الإعجابات”
-
تحليل المكالمات والشكاوى (Voice/Text Analytics)
- استخراج أسباب الشكوى المتكررة
- ربطها بإصلاحات عملية في الرحلة الرقمية
قاعدة ذهبية لتجنّب الفوضى
إذا لم تستطع كتابة سياسة واضحة من صفحة واحدة بعنوان «متى لا نستخدم الذكاء الاصطناعي؟» فالمشروع غير جاهز. هذه السياسة وحدها تُطمئن الامتثال والإدارة وتمنح الفرق مساحة للعمل بثقة.
خطة تطبيق واقعية خلال 90 يوماً لفرق التحوّل في البحرين
الإجابة المباشرة: أفضل مسار للنتائج السريعة هو بناء “منتج ذكاء اصطناعي” صغير مع حوكمة كاملة، ثم التوسّع.
هذه خطة أحبها لأنها تُقلّل الضوضاء وتزيد التعلّم:
الأسبوع 1–2: تحديد الحالة والهدف الرقمي
- اختر حالة استخدام واحدة فقط (مثلاً: تقليل الإنذارات الكاذبة في الاحتيال)
- حدد 3 مؤشرات نجاح رقمية:
- خفض الإنذارات الكاذبة بنسبة 15%
- تقليل زمن التحقيق بمعدل 20%
- عدم زيادة خسائر الاحتيال (صفر تدهور)
الأسبوع 3–6: تجهيز البيانات والحوكمة
- توثيق مصادر البيانات والتعاريف
- تحديد صلاحيات الوصول وسجل التدقيق
- اختبار تحيزات أساسية (بالحد الأدنى: العمر/الجنس/الجنسية إن كانت ضمن المتاح قانونياً)
الأسبوع 7–10: نموذج أولي + تشغيل تجريبي مضبوط
- تشغيل تجريبي على جزء من المعاملات أو شريحة عملاء محددة
- وضع مسار تراجع: عند انخفاض الثقة عن حد معيّن يتحول القرار للبشر
الأسبوع 11–13: قياس أثر + قرار توسّع
- تقرير أثر بالأرقام (قبل/بعد)
- توصيات توسع أو تعديل
- خطة تشغيل طويلة: مراقبة، تحديث، وتدريب فرق الدعم
جملة عملية: الذكاء الاصطناعي الذي لا تُراقبه يومياً ليس منتجاً، بل مخاطرة مؤجلة.
أسئلة شائعة يطرحها التنفيذيون في البحرين (وإجابات قصيرة)
هل الذكاء الاصطناعي يعني تقليل الوظائف؟
غالباً يعني إعادة توزيع العمل: الموظفون يتوقفون عن المهام المتكررة ويركزون على القضايا المعقّدة، المبيعات الاستشارية، ومعالجة الحالات الخاصة.
ما الفرق بين نماذج اللغة (LLMs) والذكاء الاصطناعي التقليدي في البنوك؟
نماذج اللغة ممتازة في التفاعل والفهم النصي (محادثات، تلخيص، استخراج معلومات). بينما النماذج التقليدية تبقى قوية في التنبؤ الرقمي (احتيال، ائتمان) عندما تكون البيانات منظمة.
ما أول شيء يجب أن نفعله قبل شراء منصة ذكاء اصطناعي؟
اكتب “خريطة قرار”: أين يُتخذ القرار؟ من يوافق؟ ما البيانات؟ ما حدود الخطأ المقبولة؟ إذا لم تتضح هذه الأشياء، المنصة لن تنقذك.
ما الذي نتعلّمه من سيرسدورفر… لوضع البحرين في المقدمة إقليمياً؟
الإجابة المباشرة: القيادة التي تنجح مع الذكاء الاصطناعي هي التي تجمع بين الجرأة والواقعية—تدفع عندما تسمع «لا»، لكنها تبني نظام تشغيل يحمي المؤسسة.
سيرسدورفر لا يتعامل مع التعقيد كحائط، بل كدعوة لإيجاد طريقة دخول. وهذه عقلية مطلوبة في البحرين تحديداً: المركز المالي يتقدم بسرعة، والمنافسة الإقليمية على تجربة العميل الرقمية وعلى سرعات الإطلاق أصبحت قاسية.
إذا كنت تقود بنكاً أو شركة فنتك، جرّب هذا التحدّي البسيط الأسبوع القادم: اختر “لا” واحدة سمعتها حول الذكاء الاصطناعي—ثم اسأل: هل هي لا بسبب المخاطر؟ أم بسبب الغموض؟ أم بسبب ذكرى مشروع فاشل؟ عندها ستعرف من أين تبدأ فعلاً.
وفي الحلقة القادمة من هذه السلسلة، سننتقل من عقلية القيادة إلى التنفيذ: كيف تُبنى حوكمة نماذج (Model Governance) تناسب بيئة تنظيمية مثل البحرين دون أن تخنق الابتكار؟