إطلاق «The Core» من الجزيرة يقدّم نموذجاً عملياً لتبنّي الذكاء الاصطناعي. تعرّف كيف تُترجم الدروس إلى التأمين والمخاطر مع خطة 90 يوماً.

من «The Core» إلى التأمين: دروس عملية لتبنّي الذكاء
في 21/12/2025 أعلنت شبكة الجزيرة الإعلامية إطلاق «The Core»، نموذج تشغيل إخباري مُدمج بالذكاء الاصطناعي على Google Cloud. الخبر يبدو “إعلامياً” للوهلة الأولى، لكن الرسالة الأهم ليست عن غرف الأخبار. الرسالة عن كيف تُبنى مؤسسة تعتمد على الذكاء الاصطناعي كزميل عمل—لا كأداة إضافية—مع وجود الإنسان في الحلقة في كل خطوة.
وهذا بالضبط ما يحتاجه قطاع التأمين وإدارة المخاطر في المنطقة الآن. نهاية العام موسم ضغط: تجديد وثائق، تسويات مطالبات، إغلاقات مالية، وتدقيقات امتثال. أي شركة تأمين تُدخل الذكاء الاصطناعي كواجهة تجريبية فقط ستنتهي بتجارب مبعثرة. أما من يتعامل معه كـ نموذج تشغيل (Operating Model) فسيكسب السرعة والدقة وقابلية التوسع… ويقلل مخاطر القرارات الخاطئة.
وبما أن هذا المقال ضمن سلسلة الذكاء الاصطناعي في التعليم والتقنيات التعليمية (EdTech)، فسأضيف زاوية غالباً تُنسى: التحول الحقيقي لا ينجح بدون “ذراع معرفي” يرفع مهارات الموظفين ويصنع لغة مشتركة بين الفرق—تماماً كما فعلت الجزيرة عندما جعلت التدريب ركناً من أركان «The Core».
لماذا «The Core» مهم لقطاع التأمين وإدارة المخاطر؟
الجواب المباشر: لأن «The Core» يعرض نموذجاً عملياً لكيفية إدخال الذكاء الاصطناعي في صميم دورة العمل من جمع البيانات إلى اتخاذ القرار، مع حوكمة واضحة وإنسان يراجع المخرجات.
في التأمين، لدينا دورة مشابهة جداً:
- جمع معلومات العميل/الأصل (الاكتتاب)
- تحليل المخاطر والتسعير
- إصدار الوثيقة وخدمة العملاء
- إدارة المطالبات والتحقق
- كشف الاحتيال واسترداد الأموال
- التقارير الرقابية، والاحتياطيات، وإدارة رأس المال
عندما تقول الجزيرة إنها تريد نقل الذكاء الاصطناعي من “أداة” إلى “شريك”، فهي تلمّح إلى شيء جوهري: الأتمتة وحدها لا تكفي. المطلوب هو “عقل تشغيلي” يجمع البيانات، يفهم السياق، يقترح، ثم يتيح للإنسان أن يقرر.
ما الذي يميز نموذج الجزيرة؟ ستة أركان… تشبه احتياجات التأمين أكثر مما تتوقع
الجواب المباشر: الأركان الستة في «The Core» ترسم خريطة جاهزة يمكن إسقاطها على شركة تأمين: منصة مركزية، نموذج لغوي خاص، إنتاج محتوى، بحيرة بيانات، محرك عمليات، وذراع تدريبي.
1) منصة مركزية مثل AJ Now = “لوحة قيادة التأمين”
الجزيرة وصفت AJ Now بأنه “قلب منظومة الأخبار”، يستخدم قدرات بحث ومعالجة واقتراح أسئلة وزوايا وتلخيصات في غرفة أخبار شريكة للذكاء الاصطناعي.
في التأمين، النظير الطبيعي هو منصة موحدة تربط:
- بيانات العملاء والوسطاء
- وثائق التأمين والملحقات
- المطالبات ومرفقاتها (صور/تقارير/مستندات)
- قرارات الاكتتاب والاستثناءات
- مؤشرات الاحتيال
الفرق بين منصة موحدة و”أنظمة متجاورة” هو الفرق بين قرار تسعير في دقائق وقرار يأخذ أياماً.
2) AJ-LLM “العقل التحريري” = نموذج لغوي خاص بالشركة (Domain LLM)
الجزيرة تتحدث عن نموذج لغوي كبير مُحسّن على أرشيفها، مع قدرات تلخيص وترجمة وسياق تحليلي.
في التأمين، هذا يعني بناء نموذج/مساعد لغوي مُحكَم ومُقيّد يعمل على:
- أدلة الاكتتاب
- شروط الوثائق والاستثناءات
- سياسات المطالبات
- سوابق القرارات واللجان
- مراسلات خدمة العملاء
جملة واحدة قابلة للاقتباس: نموذج لغوي عام يعطيك لغة عامة؛ نموذج لغوي خاص يعطيك قراراً منضبطاً بسياستك.
3) AJ Data Lake = بحيرة بيانات + وكلاء بيانات للصحافة = تحليلات مخاطر على مستوى المؤسسة
عندما تجمع BigQuery ووكلاء بيانات (Data Agents) فأنت تفتح الباب إلى:
- لوحات تنبؤية
- اكتشاف أنماط
- تقسيم شرائح العملاء بدقة
في التأمين، القيمة الأكبر هنا ليست “التقارير”، بل توقع الخسائر قبل وقوعها:
- توقع تكرار المطالبات في التأمين الصحي حسب سلوكيات الاستخدام
- رصد تغيرات المخاطر في التأمين على الممتلكات وفق بيانات المناخ/البنية التحتية
- توقع الانحراف في الاحتيال عبر شبكات المطالبات المتشابهة
4) The Ops Engine = أتمتة قرارات التشغيل (لكن مع ضوابط)
الجزيرة تذكر استخدام أدوات مثل Gemini for Workspace لأتمتة سير العمل والقرارات الداخلية.
في شركات التأمين، “محرك العمليات” قد يعني:
- فرز البريد الوارد للمطالبات تلقائياً (تصنيف + توجيه)
- إنشاء مسودات ردود خدمة العملاء بنبرة متسقة
- تلخيص ملف مطالبة من 40 صفحة إلى صفحة واحدة للمراجع
- فتح تذاكر متابعة تلقائية عند نقص مستندات
النقطة الحساسة: هذه أتمتة لقرارات صغيرة ومتكررة—وليست تفويضاً مطلقاً لقرار تعويض كبير دون مراجعة.
5) AJ Vision = توليد محتوى = توليد مستندات/شروحات/مواد توعوية
قد يبدو هذا بعيداً عن التأمين، لكنه مفيد للغاية في:
- تبسيط وثائق التأمين للعميل بلغة سهلة
- توليد مواد توعوية لتقليل الحوادث (Risk Prevention Content)
- إعداد عروض للوسطاء وفرق المبيعات بسرعة
وهنا يظهر الارتباط بسلسلة EdTech: المحتوى التوعوي عندما يصبح شخصياً وموجهاً، يتحول إلى “تعلم تطبيقي” يقلل الخسائر.
6) الذراع الأكاديمي والمعرفي = EdTech داخل المؤسسة
الجزيرة جعلت التدريب ركناً صريحاً. وهذا قرار ذكي.
في التأمين، أكثر فشل شائع رأيته هو شراء أدوات ذكاء اصطناعي ثم ترك الفرق تتعلم “بالصدفة”. النتيجة؟ استخدام غير متسق، مخاطر امتثال، ورفض داخلي.
بدلاً من ذلك، تبنَّ نموذج تدريب عملي (EdTech) مبني على:
- مسارات تعلم قصيرة (15–30 دقيقة) لفرق الاكتتاب والمطالبات والامتثال
- اختبارات كفاءة قبل منح صلاحيات الاستخدام
- مكتبة “قوالب مطالبات” و“قوالب اكتتاب” جاهزة داخل الأدوات
- تدريب على الهندسة النصية ولكن بصياغة مؤسسية: ما الذي يُسمح وما الذي يُمنع؟
أين “الفرق الحقيقي”: من رقمنة العمل إلى إعادة تصميمه
الجواب المباشر: الجزيرة لا “ترقمن” سير عملها فقط؛ هي تعيد تصميم دورة الإنتاج بحيث يصبح الذكاء الاصطناعي جزءاً أصيلاً من كل مرحلة.
هذا درس قاسٍ للتأمين: كثير من المبادرات تبدأ بـ“شات بوت” على الموقع أو أداة تلخيص للمطالبات. مفيد؟ نعم. لكنه لا يصنع تحولاً.
التحول الحقيقي يعني أنك تُجيب عن أسئلة تشغيلية مزعجة:
- ما هي القرارات التي يسمح النظام أن يقترحها فقط، وما هي القرارات التي ينفذها تلقائياً؟
- من المسؤول عندما يخطئ النموذج؟ الفريق أم مزود التقنية أم الحوكمة؟
- كيف تُوثّق أسباب القرار (Decision Rationale) لتدقيق الجهات الرقابية؟
إذا لم تُحسم هذه الأسئلة مبكراً، فالذكاء الاصطناعي سيبقى “إضافة” ولن يصبح “نظام تشغيل”.
تطبيق عملي لشركات التأمين: خريطة 90 يوماً مستوحاة من «The Core»
الجواب المباشر: ابدأ بحالتين استخدام واضحتين، وابنِ طبقة بيانات وحوكمة، ثم أطلق تدريباً داخلياً سريعاً قبل التوسع.
الأسبوع 1–2: اختر حالتي استخدام تُقاسان بالأرقام
أنسب حالتين عادةً:
- تلخيص ملفات المطالبات الكبيرة للمراجع (خفض زمن المراجعة)
- كشف مؤشرات الاحتيال الأولية عبر قواعد + نماذج (رفع جودة الإحالة للتحقيق)
ضع مؤشرات نجاح دقيقة:
- تقليل زمن “أول رد” على المطالبة بنسبة 20%
- تقليل الإحالات الخاطئة للتحقيق بنسبة 15%
الأسبوع 3–6: جهّز البيانات والحوكمة قبل أي توسّع
- تصنيف البيانات الحساسة (PII/PHI) ومن يملك حق الوصول
- سجلات تدقيق للمخرجات: من طلب؟ ماذا أُنتج؟ من اعتمد؟
- قوالب مخرجات ثابتة (مثلاً: ملخص مطالبة من 6 أقسام لا غير)
الأسبوع 7–10: أدخل “الإنسان في الحلقة” بشكل رسمي
- تحديد مستويات مراجعة حسب قيمة المطالبة
- قواعد رفض تلقائي لمخرجات غير مكتملة (مثل نقص مستندات)
- مسار تصعيد واضح للقرارات الرمادية
الأسبوع 11–13: أطلق ذراع EdTech داخلي
- 3 وحدات تدريبية: (الاستخدام الآمن) + (صياغة الطلبات) + (قراءة المخرجات نقدياً)
- “سياسة استخدام” من صفحة واحدة يفهمها الجميع
- ورشة أسبوعية لعرض أفضل أمثلة وأخطاء شائعة
ملاحظة عملية: التدريب ليس رفاهية. هو خط دفاع أول ضد مخاطر السمعة والامتثال.
أسئلة شائعة يطرحها التنفيذيون (وإجابات صريحة)
هل الذكاء الاصطناعي يقلل الوظائف؟
يقلل الأعمال المتكررة قبل أن يقلل الوظائف. في التأمين، المكسب الأكبر هو تحرير وقت الخبراء للاكتتاب المعقد والتفاوض والتحقيق المتخصص.
هل الاعتماد على السحابة يزيد المخاطر؟
الخطر ليس في السحابة بحد ذاتها، بل في تصميم الوصول، والتشفير، والمراقبة، وإدارة المفاتيح. المؤسسات الناضجة تُدير هذه المخاطر مثلما تدير مخاطر الائتمان: بسياسات وضوابط، لا بالمنع المطلق.
كيف نمنع “هلوسة” النموذج؟
بالجمع بين:
- تقييد المعرفة لمصادر موثوقة داخلية (RAG/Knowledge Base)
- قوالب مخرجات إلزامية
- اختبارات قبول قبل الإطلاق
- مراجعة بشرية حسب الحساسية
لماذا هذا المقال ضمن سلسلة EdTech؟ لأن التحول يتعلم قبل أن يتوسع
نهاية 2025 تُظهر نمطاً واضحاً في المنطقة: المؤسسات التي تنجح في الذكاء الاصطناعي لا تبدأ بالأداة، بل تبدأ بـتغيير طريقة العمل وتطوير مهارات الناس. «The Core» قدم مثالاً: منصة + بيانات + وكلاء + تدريب.
إذا كنت تعمل في التأمين وإدارة المخاطر، فالسؤال الذي يستحق وقتك الآن ليس: “أي نموذج نشتري؟” بل: هل لدينا نموذج تعلم مؤسسي يجعل الذكاء الاصطناعي ممارسة يومية آمنة؟
ما الخطوة التالية؟ اختر عملية واحدة مؤلمة (مطالبات أو احتيال أو اكتتاب)، صمّم لها “نواة تشغيل” صغيرة، وادعمها بتدريب قصير وحوكمة واضحة. بعدها فقط يصبح التوسع قراراً منطقياً، لا مغامرة.