قانون DRIVER يعيد تعريف ملكية بيانات المركبات ويؤثر مباشرة على UBI ونماذج الذكاء الاصطناعي في التأمين. تعرّف على ما يتغير وكيف تستعد.

قانون DRIVER وبيانات المركبات: ما الذي يتغير للتأمين؟
في 16/12/2025 ظهر خبر قد يبدو “أمريكياً بحتاً”، لكنه عملياً يلمس أي شركة تأمين أو مدير أسطول أو مزوّد حلول نقل ذكي يعتمد على بيانات المركبات: جمعية التأمين الأمريكية للممتلكات والحوادث (APCIA) أعلنت دعمها لمشروع قانون DRIVER الذي يركّز على ملكية بيانات المركبة وخصوصيتها.
Most companies get this wrong: كثيرون يتعاملون مع بيانات المركبة كأنها “موجودة في الهواء” ويمكن التقاطها وقتما نريد. الواقع أن هذه البيانات تتحول بسرعة إلى أصل تنظيمي حساس—ومع الذكاء الاصطناعي في التأمين وإدارة المخاطر، تصبح قواعد الملكية والخصوصية هي التي تحدد ما يمكنك فعله فعلاً، لا ما تستطيع بناءه تقنياً.
ضمن سلسلة "الذكاء الاصطناعي في النقل والخدمات اللوجستية"، هذا المقال يضع قانون DRIVER في سياقه الأوسع: كيف يؤثر على التسعير القائم على الاستخدام (UBI)، والتحليلات التنبؤية للحوادث، واكتشاف الاحتيال، وإدارة أساطيل النقل—وكيف تستعد الجهات في المنطقة (وخاصة بيئات المدن الذكية) لموجة تنظيمية مشابهة.
لماذا قانون DRIVER مهم للذكاء الاصطناعي في التأمين؟
الجواب المباشر: لأنه يعيد ترتيب “من يملك البيانات ومن يقرر استخدامها”، وهذا ينعكس فوراً على جودة نماذج الذكاء الاصطناعي والامتثال.
قانون DRIVER (كما طُرح في الكونغرس الأمريكي) يستهدف ضمان أن مالك المركبة لديه حقوق واضحة في الوصول إلى البيانات التي تولدها مركبته والتحكم فيها—من بيانات التيليماتكس وتشخيص المحرك إلى بيانات السلامة والقيادة. ويُلزم شركات تصنيع المركبات بسياسات أوضح حول جمع البيانات وتخزينها ومشاركتها.
في التأمين، بيانات المركبات ليست “تفصيلاً تقنياً”. هي مادة خام لقرارات حساسة:
- الاكتتاب (Underwriting): تقييم المخاطر بناءً على أنماط القيادة والبيئة التشغيلية.
- التسعير الديناميكي: خصومات/زيادات تعتمد على الاستخدام الفعلي.
- إدارة المطالبات: تسريع التحقق بعد الحوادث، وتقليل الاحتيال.
- نماذج التنبؤ: توقع الحوادث والأعطال وتحديد التدخلات الوقائية.
عندما يصبح الوصول إلى هذه البيانات مشروطاً بإذن صريح وقابل للإلغاء، فهذه ليست “عقبة”—بل قاعدة جديدة يجب أن يُصمم عليها الذكاء الاصطناعي منذ البداية.
ما الذي يغيره قانون DRIVER في ملكية البيانات والخصوصية؟
الجواب المباشر: يضع خطوطاً واضحة حول حق الوصول ومنع الاستخدام غير المصرّح وشفافية مشاركة البيانات.
حسب ما جاء في الخبر، القانون يهدف إلى:
1) حق غير معرقل للوصول إلى البيانات
المالك يجب أن يحصل على وصول “غير معرقل” لبيانات مركبته. هذا يضغط على السوق نحو واجهات وصول قياسية أو على الأقل أقل تعسفاً.
بالنسبة لشركات التأمين: إذا كان برنامج UBI أو إدارة المخاطر يعتمد على بيانات من مصنع معيّن، فإن الاعتماد على قناة واحدة مملوكة للمصنّع يصبح خطراً تشغيلياً.
2) شفافية الجمع والتخزين والمشاركة
القانون يدفع لسياسات واضحة: ما الذي يُجمع؟ أين يُخزن؟ ومع من يُشارك؟ ولماذا؟
بالنسبة للذكاء الاصطناعي: الشفافية ليست “وثيقة قانونية” فقط. هي عنصر جودة بيانات. لأنك لن تستطيع تبرير خصم/زيادة قسط مبني على نموذج لا تستطيع تفسير مدخلاته ومصدرها.
3) منع إساءة الاستخدام (بما فيها جهات خارجية أو أجنبية)
هذه النقطة حساسة في نهاية 2025 مع تصاعد القلق العالمي حول سيادة البيانات. الرسالة واضحة: بيانات المركبة قد تُعامل كبيانات حساسة وليست مجرد سجلات فنية.
بالنسبة لمشغلي الأساطيل في النقل والخدمات اللوجستية: مشاركة بيانات الأسطول مع مزوّدين متعددين (تأمين، صيانة، تتبع، سلامة) تحتاج حوكمة أقوى: من يملك ماذا؟ ومن يستطيع استنتاج ماذا؟
التأثير العملي على التأمين القائم على الاستخدام (UBI) وتسعير المخاطر
الجواب المباشر: ستنتقل المنافسة من “من يستطيع جمع البيانات” إلى “من يستطيع كسب ثقة العميل وإدارة الموافقة بذكاء”.
قانون DRIVER لا يمنع UBI، لكنه يرفع السقف: الوصول للبيانات يجب أن يكون قانونياً ومُفهوماً للمستهلك. هذا يغيّر تصميم البرامج:
كيف يتغيّر تصميم برنامج UBI؟
بدلاً من نموذج “وافق الآن وانتهى الأمر”، البرامج القوية ستكون أقرب إلى نموذج اشتراك شفاف:
- موافقة طبقية (Granular Consent): موافقة على السرعة/الكبح/المسافة، ورفض لمعلومات الموقع الدقيقة مثلاً.
- مدة احتفاظ واضحة: 30 يوماً للعمليات؟ 12 شهراً للتسعير؟ أكثر للتحقيقات؟ يجب أن تكون محددة.
- حق الإلغاء دون عقوبة مخفية: إذا ألغى العميل المشاركة، ما الذي يحدث للقسط؟ وكيف يتم التسعير بعدها؟
مثال واقعي قريب من بيئة الأساطيل
شركة توصيل داخل مدينة ذكية تريد خفض الحوادث. تستخدم التيليماتكس لتحديد السائقين ذوي الكبح الحاد المتكرر. إذا كانت البيانات تُجمع بشكل زائد (مثل تتبع دائم للموقع) فستواجه اعتراضات داخلية (خصوصية الموظف) وخارجية (امتثال). الحل العملي:
- اجمع مؤشرات سلوكية (تسارع/كبح/انعطاف)
- وقلل الموقع إلى “مناطق تشغيل” بدلاً من إحداثيات لحظية
- وامنح السائق/الموظف لوحة توضح ما يُجمع ولماذا
هذا ليس ترفاً. هذا ما يجعل برنامج السلامة قابلاً للاستمرار—وبالتالي يجعل نموذج الذكاء الاصطناعي قابلًا للتغذية بالبيانات لفترة طويلة.
الذكاء الاصطناعي بين جودة البيانات والامتثال: أين يقع الفخ؟
الجواب المباشر: الفخ هو بناء نماذج قوية ثم اكتشاف أن البيانات التي غذتها غير قابلة للاستخدام قانونياً أو أخلاقياً.
APCIA ربطت دعمها للقانون بأن الوصول إلى بيانات دقيقة وتحت قواعد ملكية واضحة يساعد في تقييم المخاطر والاكتتاب ومعالجة المطالبات مع الالتزام بمعايير الخصوصية والأمن السيبراني. هذا منطقي. لكن من زاوية تطبيقية، هناك 4 نقاط غالباً تُهمل:
1) تقليل البيانات (Data Minimization) يحسّن الذكاء الاصطناعي أحياناً
عندما تجمع كل شيء، تخلق ضوضاء وتفتح أبواب المخاطر. كثير من نماذج التسعير تحتاج مؤشرات قليلة لكنها موثوقة، مثل:
- عدد مرات الكبح الحاد لكل 100 كم
- القيادة الليلية كنسبة من إجمالي المسافة
- متوسط السرعة مقارنة بحدود الطريق (بشكل مُعمّم)
2) “ملكية البيانات” لا تعني حرية مطلقة في الاستنتاج
حتى مع موافقة العميل، بعض الاستنتاجات قد تُعد حساسة (مثل استنتاج نمط حياة أو أماكن تردد). الذكاء الاصطناعي بارع في الاستنتاجات غير المقصودة. وهنا يجب وضع ضوابط:
- منع استخدامات ثانوية غير مرتبطة بالتأمين
- فصل بيانات الهوية عن بيانات السلوك (تقنيات pseudonymization)
3) قابلية التدقيق (Auditability) ليست خياراً
لو حدث نزاع على قسط أو مطالبة، ستُسأل: لماذا قرر النموذج؟ ما البيانات؟ من وافق؟ متى؟
عملياً، تحتاج:
- سجل موافقات (Consent Log) بتواريخ وأغراض
- سجل نسخ البيانات (Data Lineage)
- سياسات احتفاظ وحذف قابلة للتنفيذ، لا مجرد نص
4) الأمن السيبراني جزء من معادلة المخاطر
بيانات المركبة تشمل تشخيصات وأنماط استخدام وقد تتقاطع مع الموقع. أي تسريب يخلق:
- ضرر سمعة
- غرامات تنظيمية
- احتيال مطالبات
وهنا الذكاء الاصطناعي يساعد أيضاً: رصد أنماط وصول غير طبيعية للبيانات، واكتشاف طلبات API الشاذة، وتحليل محاولات التلاعب بقراءات التيليماتكس.
كيف تستفيد شركات التأمين ومديرو الأساطيل في المنطقة من هذا الدرس؟
الجواب المباشر: تعامل مع قانون DRIVER كنموذج مبكر لما سيصبح معياراً عالمياً: حوكمة بيانات المركبات أولاً، ثم نماذج الذكاء الاصطناعي.
حتى لو كنت تعمل خارج الولايات المتحدة، الاتجاه العالمي واحد: خصوصية أعلى، موافقات أوضح، وقيود على نقل البيانات وتخزينها. إذا كنت في قطاع النقل والخدمات اللوجستية—حيث الأساطيل تولّد بيانات كثيفة—ففرصك أكبر ومخاطرك أكبر.
خطة تنفيذ مختصرة (عملية وليست نظرية)
إذا كنت تبني أو تدير برنامجاً يعتمد على بيانات المركبة (تأمين، إدارة أسطول، سلامة)، هذه خطوات أعتبرها “حداً أدنى”:
- جرد مصادر البيانات: مصنع المركبة، جهاز OBD، تطبيق سائق، منصة أسطول.
- تصنيف البيانات حسب الحساسية: سلوكية، موقع، تشخيص، هوية.
- تحديد الغرض لكل نوع بيانات: تسعير، مطالبة، سلامة، صيانة.
- تصميم موافقات قابلة للتجزئة: لا تضع كل شيء في مربع واحد.
- تطبيق مبدأ أقل صلاحية (Least Privilege): من داخل الشركة ومن مزوّدين خارجيين.
- اختبارات “ما قبل الإنتاج” للامتثال: هل نستطيع حذف بيانات عميل واحد بالكامل؟ هل نعرف أين نُسخّت؟
أسئلة شائعة (بنمط “يسأل الناس أيضاً”)
هل سيقلّل قانون DRIVER دقة نماذج التسعير؟ ليس بالضرورة. إذا صُممت الموافقة بوضوح، سترتفع جودة البيانات لأن العميل يفهم ما يقدمه ولماذا.
هل يمكن اكتشاف الاحتيال دون بيانات مفصلة جداً؟ نعم. كثير من حالات الاحتيال تُكشف عبر التناسق الزمني للحادث، ونمط التسارع/التباطؤ، ومقارنة بيانات متعددة المصادر—بدون تتبع موقع دقيق طوال الوقت.
ما علاقة ذلك بالنقل الذكي في المدن؟ النقل الذكي يعتمد على حساسات وبيانات لحظية. كلما زاد الاعتماد على البيانات، زادت الحاجة إلى حوكمة صارمة حتى لا تتحول “المدينة الذكية” إلى “مدينة مُراقِبة”.
أين تتجه الأمور في 2026؟ موقف واضح
الجواب المباشر: شركات التأمين التي ستكسب هي التي تعامل الخصوصية كميزة تصميم، لا كحاجز قانوني.
أنا مع قانون DRIVER من زاوية مهنية: لأنه يضع إطاراً يقلّل الفوضى ويمنع أن تتحول بيانات المركبة إلى سوق رمادية. نعم، سيضيف تكلفة امتثال. لكنه أيضاً سيخلق سوقاً أكثر عدلاً: إذا حصلت على موافقة صحيحة وبنية بيانات نظيفة، يمكنك الابتكار بثقة.
إذا كنت تدير برنامج UBI، أو تعمل في تحليل مخاطر الأساطيل، أو تبني نماذج ذكاء اصطناعي لخفض الحوادث في سلاسل الإمداد، فالسؤال الذي يجب أن تسأله في 21/12/2025 ليس “هل لدينا نموذج قوي؟” بل: هل لدينا حق واضح في هذه البيانات، وهل نستطيع إثبات ذلك؟
جملة تصلح كقاعدة داخلية: أي نموذج ذكاء اصطناعي لا يستطيع شرح مصدر بياناته وموافقتها… سيتوقف عند أول تدقيق.
الخطوة التالية بسيطة: راجع برنامج بيانات المركبات لديك خلال أسبوعين، وحدد فجوة واحدة في الموافقات أو الاحتفاظ أو مشاركة الأطراف الثالثة، وأغلقها. بعدها فقط، زد جرعة الذكاء الاصطناعي بثقة.