تنظيم الذكاء الاصطناعي بالتأمين: درس من أمريكا للإمارات

الذكاء الاصطناعي في التأمين وإدارة المخاطرBy 3L3C

الخلاف حول تنظيم الذكاء الاصطناعي في التأمين بأمريكا يكشف درساً مهماً للإمارات: الوضوح التنظيمي يسرّع الابتكار ويقلل المخاطر. ابدأ بخطة حوكمة عملية.

حوكمة الذكاء الاصطناعيتقنية التأمينالامتثال وإدارة المخاطرمكافحة الاحتيالأتمتة المطالباتتحليلات البيانات
Share:

Featured image for تنظيم الذكاء الاصطناعي بالتأمين: درس من أمريكا للإمارات

تنظيم الذكاء الاصطناعي بالتأمين: درس من أمريكا للإمارات

في 15/12/2025 فجراً (بتوقيت النشر العالمي)، ظهر خبرٌ لافت في سوق التأمين الأمريكي: أمرٌ تنفيذي يدفع نحو توحيد تنظيم الذكاء الاصطناعي على المستوى الفيدرالي مع نبرة واضحة ضد “تجزئة” القوانين بين الولايات. المفارقة أن قطاع التأمين—الذي يعيش على الدقة والانضباط—انقسم حول الموضوع. بعض شركات التأمين تريد قاعدة واحدة تُريحها من تعدد المتطلبات، فيما يرى مشرّعو الولايات أن الأمر يُقوّض قدرتهم على حماية المستهلكين والتعامل مع المخاطر الناشئة.

هذه ليست قصة أمريكية “بعيدة”. بالنسبة لقطاع التأمين في الإمارات، النقاش يلمس عصباً حساساً: كيف نُسرّع تبنّي الذكاء الاصطناعي في تقييم المخاطر والكشف عن الاحتيال ومعالجة المطالبات من دون أن تتحول الحوكمة إلى عائق، أو أن تتحول المرونة إلى فجوة تنظيمية؟

أنا أميل لرأيٍ عملي: ليس المطلوب اختيار طرف (مركزي بالكامل أو محلي بالكامل)، بل بناء حوكمة واضحة وقابلة للتنفيذ تُحدد ما هو عالي المخاطر وما هو منخفض المخاطر، وتضع قواعد شفافة للقرارات المؤثرة على العملاء، ثم تترك مجالاً للتطوير السريع في التطبيقات الأقل حساسية.

لماذا الخلاف الأمريكي مهم لأي شركة تأمين تستخدم الذكاء الاصطناعي؟

الجواب المباشر: لأن الذكاء الاصطناعي في التأمين لا يعمل في فراغ. أي نموذج تسعير، أو محرك كشف احتيال، أو أداة أتمتة مطالبات—إذا لم تُحسم قواعده التنظيمية—سيتحول إلى مخاطرة تشغيلية وقانونية قبل أن يكون فرصة.

في الخبر الأمريكي، يتلخص جوهر الأمر التنفيذي في ثلاث نقاط عملية:

  1. معيار وطني “حد أدنى” لتنظيم الذكاء الاصطناعي بدل خليط قوانين على مستوى الولايات.
  2. تأسيس فريق تقاضٍ خلال 30 يوماً للطعن في قوانين الولايات التي يراها غير دستورية أو متعارضة مع النهج الفيدرالي.
  3. تقييم خلال 90 يوماً لقوانين الذكاء الاصطناعي في الولايات وتحديد ما قد يُستهدف قضائياً، مع ربط جزء من تمويلات اتحادية (مرتبطة بالبنية التحتية للنطاق العريض) بسياسات الولايات تجاه الذكاء الاصطناعي.

هذه تفاصيل تنظيمية، لكنها ترسم واقعاً معروفاً في التأمين: عندما تتغير القواعد، تتغير طريقة تصميم النماذج، وتوثيقها، وشرح قراراتها، وعمليات التدقيق عليها.

بالنسبة للإمارات، النقطة ليست “هل سنقلد أمريكا؟”. النقطة: كيف نضمن وضوحاً تنظيمياً يمنع تشتت المعايير بين الجهات والقطاعات ويُسرّع الاستثمار في التحليلات التنبؤية وإدارة المخاطر.

عندما تطلب شركات التأمين قاعدة واحدة: ماذا تكسب وماذا تخسر؟

الجواب المباشر: القاعدة الواحدة تُخفض تكلفة الامتثال وتُسرّع النشر، لكنها قد تُغري الشركات بتقليل الانضباط الداخلي إذا لم تُربط بمتطلبات حوكمة قوية.

لماذا يفضلها قطاع التأمين الصحي (كما ظهر في الخبر)؟

شركات التأمين الصحي رحبت بالفكرة لأن تعدد القوانين يعني عملياً:

  • اختلاف متطلبات الإفصاح للمؤمن عليهم من ولاية لأخرى
  • اختلاف تعريف “الاستخدام عالي المخاطر”
  • اختلاف متطلبات التدقيق من طرف ثالث
  • تضارب في كيفية التعامل مع البيانات الحساسة

عندما تعمل الشركة عبر مناطق متعددة، يصبح الذكاء الاصطناعي عبئاً: فريق الامتثال يطلب تعديلات محلية، وفريق البيانات يطلب ثباتاً في خصائص النموذج، وفريق الأعمال يريد إطلاقاً سريعاً.

لكن… أين الفخ؟

الفخ أن “المعيار الأدنى” إذا كان عاماً أكثر من اللازم، قد يسمح بممارسات تُضعف ثقة العملاء. في التأمين، الثقة ليست شعاراً؛ هي تكلفة اكتساب العميل، ونسبة الاحتفاظ، وسمعة العلامة التجارية.

جملة واحدة تُلخص هذا: الذكاء الاصطناعي الذي لا يمكن تفسير أثره على العميل يتحول إلى نزاع.

لماذا تُصر الولايات (والجهات المحلية) على دورها؟

الجواب المباشر: لأن المخاطر تظهر محلياً قبل أن تتحول إلى سياسة وطنية.

في الخبر، عبّر مشرّعو التأمين في الولايات عن قلق “فيدرالي” كلاسيكي: أن سحب الصلاحية من المستوى المحلي يحد من قدرة الولايات على الاستجابة لمخاوف المواطنين حول آثار مجهولة للذكاء الاصطناعي.

هذا المنطق له ما يشبهه في أي سوق:

  • قرارات تسعير التأمين قد تؤثر على فئات معينة أكثر من غيرها
  • أتمتة قرارات المطالبات قد ترفع معدلات الرفض إذا كان النموذج “حساساً” لبيانات غير مستقرة
  • أنظمة كشف الاحتيال قد ترفع الإنذارات الكاذبة في مناطق أو أنماط سلوكية معينة

المحلي يرى التفاصيل اليومية. المركزي يرى الصورة الكبرى. المشكلة تبدأ عندما لا توجد لغة مشتركة بين الطرفين لوصف المخاطر.

ما الذي يعنيه ذلك لقطاع التأمين في الإمارات؟ 5 دروس قابلة للتطبيق

الجواب المباشر: الإمارات تستطيع تفادي فوضى “التجزئة التنظيمية” عبر حوكمة مبكرة توازن بين الوضوح والمرونة، وتُصنف الاستخدامات حسب المخاطر.

1) صنّف استخدامات الذكاء الاصطناعي حسب المخاطر—ولا تعاملها كلها بنفس الصرامة

ليس من المنطقي إخضاع “روبوت محادثة يجيب عن أسئلة الوثيقة” لنفس مستوى حوكمة “نموذج يقرر قبول/رفض مطالبة”.

اقتراح عملي لتصنيف داخلي داخل شركة تأمين:

  • عالي المخاطر: قرارات تؤثر على تسعير العميل، أهلية التغطية، رفض/قبول المطالبة، مكافحة الاحتيال التي قد تقود لإجراءات قانونية.
  • متوسط المخاطر: توصيات لموظف (وليس قراراً نهائياً)، أتمتة فرز المطالبات، تلخيص المستندات الطبية.
  • منخفض المخاطر: بحث داخلي، مساعد معرفة للموظفين، تحسين تجربة الخدمة دون تأثير مالي مباشر.

كل فئة لها حوكمة مختلفة: توثيق أعمق، مراجعة بشرية إلزامية، اختبارات تحيز، متطلبات تفسير.

2) اربط الذكاء الاصطناعي مباشرة بإدارة المخاطر المؤسسية (ERM)

كثير من الشركات تتعامل مع الذكاء الاصطناعي كمشروع تقنية. هذا خطأ شائع. الأفضل أن يُدار كـ مخاطر نموذج (Model Risk) ضمن إطار ERM.

عملياً، اسأل ثلاثة أسئلة قبل الإنتاج:

  1. ما الخطر إذا أخطأ النموذج بنسبة 2%؟ ومن يتحمل الأثر؟
  2. ما أسوأ سيناريو تشغيلي (انقطاع بيانات/انحراف نموذج/هجوم سيبراني)؟
  3. كيف نكتشف الانحراف مبكراً خلال 7 أيام، لا بعد 7 أشهر؟

3) اجعل “قابلية التفسير” جزءاً من التصميم، لا ملحقاً بعد الشكوى

في التأمين، القرار يحتاج تفسيراً يفهمه العميل ويفهمه المدقق. التفسير ليس دائماً كشف المعادلات، بل شرح منطقي للسبب.

مثال تطبيقي:

  • بدلاً من: “النموذج اعتبر المطالبة عالية الاحتيال.”
  • استخدم: “تم وضع المطالبة للمراجعة لأن نمط المستندات يطابق 3 مؤشرات خطر: تشابه صور فواتير، تكرار مزود خدمة، وتباين توقيت الخدمة.”

هذا النوع من التفسير يقلل التصعيد، ويُحسن تجربة العميل، ويمنح فريق الاحتيال نقطة انطلاق واضحة.

4) اتفق على سياسة بيانات تأمينية واضحة: من يملك ماذا؟ ولماذا؟

النماذج الجيدة تبدأ من البيانات الجيدة. لكن بيانات التأمين حساسة للغاية (صحية، مالية، سلوكية). المطلوب إطار عملي لا يمنع الاستخدام، ولا يفتح الباب على مصراعيه.

سياسة بيانات قوية لشركة تأمين في الإمارات يجب أن تغطي:

  • الحد الأدنى من البيانات اللازمة لكل حالة استخدام
  • مدة الاحتفاظ ومعايير الإتلاف
  • ضوابط مشاركة البيانات مع موردي التقنية
  • اختبارات جودة البيانات: الاتساق، الاكتمال، التحيز

5) لا تؤجل إدارة الموردين (Vendor Governance)—خصوصاً في نماذج التوليد

نهاية 2025 شهدت تسارعاً كبيراً في استخدام الذكاء الاصطناعي التوليدي داخل العمليات (تلخيص مطالبات، مسودة مراسلات، استخراج بيانات من مستندات). هذا رائع… حتى تتفاجأ بأن بياناتك مرت عبر طرف ثالث دون ضبط كافٍ.

ما أراه “شرطاً أساسياً” في أي عقد توريد:

  • تحديد واضح لما إذا كانت البيانات تُستخدم لتدريب نماذج المزود أم لا
  • سجلات تدقيق (Audit Logs) قابلة للمراجعة
  • التزامات حول مكان تخزين البيانات ومعايير الأمن
  • حق اختبار/تقييم أمني دوري

أين يظهر الأثر مباشرة؟ تسعير المخاطر، الاحتيال، والمطالبات

الجواب المباشر: الصراع التنظيمي يضغط أكثر على 3 مناطق لأنها الأعلى حساسية: التسعير، مكافحة الاحتيال، وقرارات المطالبات.

تسعير المخاطر (Risk-Based Pricing)

أي تنظيم يشدد على التحيز أو الشفافية سيؤثر على:

  • اختيار المتغيرات (Features) التي تدخل التسعير
  • منع الاعتماد على متغيرات بديلة قد تُنتج تحيزاً غير مباشر
  • ضرورة وجود مبرر قابل للشرح للفرق في الأسعار

الكشف عن الاحتيال (Fraud Detection)

الاحتيال مجال ممتاز للذكاء الاصطناعي، لكنه حساس لأن “إنذاراً خاطئاً” قد يُعامل العميل كمتهم. الأفضل هنا هو نهج الهجين:

  • النموذج يُصنف ويُرتب الأولويات
  • القرار النهائي للمراجعة والتحقق يكون بشرياً وفق سياسة مكتوبة
  • مقاييس أسبوعية للإنذارات الكاذبة ومعدلات الاكتشاف

أتمتة المطالبات (Claims Automation)

أتمتة المطالبات تحقق مكاسب سريعة في السرعة والتكلفة، خصوصاً مع ضغط نهاية العام وارتفاع حجم العمليات. لكن أي إطار تنظيمي سيطلب غالباً:

  • مسار اعتراض واضح للعميل
  • مراجعة بشرية للقرارات الحرجة
  • سجل قرار يوضح كيف وصل النظام للنتيجة

قاعدة عملية: كلما اقترب الذكاء الاصطناعي من “نعم/لا” في المال أو التغطية، زادت الحاجة للتوثيق والحوكمة.

أسئلة شائعة من فرق التأمين (وإجابات مباشرة)

هل القاعدة الموحدة أفضل دائماً؟

ليست دائماً أفضل، لكنها أفضل من الفوضى. القاعدة الموحدة تنجح عندما تُبنى على نهج قائم على المخاطر وتترك مساحة للتحديث السريع.

هل التدقيق من طرف ثالث ضرورة أم عبء؟

هو ضرورة في الاستخدامات عالية المخاطر إذا صُمّم بذكاء: نطاق محدد، معايير واضحة، وتواتر مناسب. التدقيق العشوائي يتحول إلى تكلفة بلا فائدة.

كيف نبدأ دون تعقيد؟

ابدأ بحالتين استخدام فقط: واحدة في الاحتيال وأخرى في المطالبات، مع حوكمة مبسطة: مالك للنموذج، سجل بيانات، اختبارات انحراف شهرية، وتفسير قرار جاهز للعميل.

ما الذي أنصح به كخطوة عملية في 30 يوماً؟

إذا كنت مسؤولاً في شركة تأمين (أو وسيطاً كبيراً أو مدير مخاطر) وتريد نتائج ملموسة قبل نهاية الربع القادم، افعل الآتي خلال 30 يوماً:

  1. جرد استخدامات الذكاء الاصطناعي الحالية (حتى لو كانت “تجارب” داخل الأقسام).
  2. صنّفها: عالي/متوسط/منخفض المخاطر.
  3. اختر حالة استخدام عالية القيمة لتطبيق حوكمة خفيفة لكن صارمة (Owner + توثيق بيانات + اختبار تحيز + تفسير قرار).
  4. أنشئ لجنة صغيرة: الامتثال + البيانات + العمليات + الأمن السيبراني، تجتمع 30 دقيقة أسبوعياً.

هذه الخطوات البسيطة تمنع أكثر الأخطاء كلفة: نموذج يعمل جيداً تقنياً، لكنه يسقط عند أول تدقيق أو شكوى.

الذكاء الاصطناعي في التأمين وإدارة المخاطر ليس سباق أدوات، بل سباق ثقة. والخلاف الأمريكي يذكرنا بشيء واحد: عندما تتضارب القواعد، تتوقف الاستثمارات أو تصبح أقصر نفساً. وعندما تتضح الحوكمة، يبدأ الابتكار الحقيقي.

إذا كان السؤال الآن: كيف نُسرّع اعتماد الذكاء الاصطناعي في التأمين الإماراتي من دون المخاطرة بالسمعة والامتثال؟ فالإجابة تبدأ بتوحيد لغة المخاطر داخل الشركة، ثم تحويلها إلى سياسات قابلة للتطبيق. ما حالة الاستخدام التي تريد أن تضعها تحت حوكمة واضحة أولاً: التسعير، الاحتيال، أم المطالبات؟