הטריק של הקרנל עושה AI בביטוח פחות מסתורי: דמיון למקרי עבר, משקולות ווקטורי תמיכה שמסבירים החלטות בתמחור, תביעות והונאות.

Kernel Trick ב-Excel: הבסיס ל-AI בביטוח וסיכונים
רוב האנשים בענף הביטוח מכירים את התוצאה: “המערכת סימנה את התביעה כחשודה” או “המודל המליץ על פרמיה גבוהה יותר”. הבעיה מתחילה כשמישהו שואל למה—ואז התשובה נהיית מעורפלת מדי, או טכנית מדי.
דווקא כאן, “הטריק של הקרנל” (Kernel Trick) נותן יתרון מפתיע: הוא מאפשר לבנות מודלים שמזהים גבולות לא-ליניאריים (כלומר, מציאות מורכבת) אבל עדיין אפשר להסביר אותם בשפה של “דמיון לנקודות עבר”. ואם אפשר להסביר—אפשר גם להטמיע בביטוח, לעמוד בדרישות רגולציה, ולהפוך את המודל לכלי עבודה אמיתי בניהול סיכונים.
הפוסט הזה ייקח רעיון שנשמע כמו מדעי המחשב, ויהפוך אותו לקונקרטי: נבין איך קרנלים עובדים דרך אינטואיציה של KDE (הערכת צפיפות), למה SVM “משאיר רק את הנקודות החשובות”, ואיך כל זה מתחבר לעולמות של חיתום, ניהול תביעות וזיהוי הונאות. כחלק מסדרת “בינה מלאכותית בתעשייה וייצור מתקדם”, ניגע גם במכנה המשותף: עבודה עם נתונים תפעוליים, החלטות בזמן אמת, ושקיפות מול עסק.
הקרנל הוא לא קסם: הוא דרך למדוד “דמיון”
הנקודה המרכזית: קרנל הוא פונקציה שמתרגמת מרחק לדמיון. במקום להגיד “הנקודה הזאת רחוקה 7 יחידות”, הקרנל אומר “כמה היא דומה”. זה שינוי קטן בשפה—ושינוי ענק ביכולת לעבוד עם גבולות החלטה מורכבים.
בביטוח, זה נשמע מייד מוכר:
- תביעה חדשה “דומה” למקבץ תביעות עבר שהתגלה כהונאה.
- מבוטח חדש “דומה” לפרופיל של לקוחות עם תדירות תביעות גבוהה.
- פוליסה מסוימת “דומה” למוצרים שבהם שיעור הביטולים גבוה במיוחד.
הטריק הוא למדוד דמיון בצורה חכמה. כאן נכנסים קרנלים כמו RBF (Gaussian).
KDE כנקודת פתיחה: הרבה “פעמונים” שמתחברים לעקומה אחת
KDE (Kernel Density Estimation) מתחיל מרעיון פשוט: לוקחים לכל נקודת נתון “פעמון” קטן (התפלגות מקומית), ואז מחברים את כל הפעמונים לצפיפות גלובלית אחת.
אם הפעמונים צרים—המודל מקומי מאוד (רגיש לפרטים). אם הפעמונים רחבים—הוא חלק יותר (מכליל).
הפרמטר ששולט בזה נקרא לעיתים “רוחב חלון” (bandwidth) ב-KDE. בקרנל RBF הוא מופיע כ-γ (גאמא):
- גאמא קטן → פעמון רחב → השפעה גלובלית יותר.
- גאמא גדול → פעמון צר → השפעה מקומית מאוד.
זו אותה אינטואיציה, רק בשפה אחרת.
מ-KDE למודל סיווג: “כל נקודת אימון מצביעה”
המעבר החשוב: במקום להשתמש בפעמונים כדי לבנות צפיפות, משתמשים בהם כדי לבנות פונקציית החלטה.
דמיינו שיש לנו נתוני אימון על ציר אחד (לצורך פשטות), ולכל נקודה יש תווית: תביעה לגיטימית (+1) או חשודה (-1). עכשיו:
- סביב כל נקודה בונים פעמון RBF.
- מכפילים את הפעמון בתווית שלו (חיובי/שלילי).
- מחברים את כל התרומות.
התוצאה היא ציון f(x) לכל ערך חדש x. אם הציון חיובי—מחלקה אחת, אם שלילי—מחלקה אחרת.
משפט שאפשר לקחת לישיבת הנהלה: המודל לא “מנחש” מהי הונאה; הוא מצטבר מהשוואה לתיקי עבר דומים, עם השפעה חיובית או שלילית.
למה זה רלוונטי לביטוח?
כי הרבה בעיות ביטוחיות הן לא ליניאריות:
- הונאה לא נראית כמו “יותר מהכול” אלא כמו קומבינציה מוזרה (זמן, מקום, ספק, דפוס מסמכים).
- סיכון תאונות תלוי בהצטלבות של גיל × סוג רכב × אזור × שעות נסיעה.
- היקף תביעות בריאות יכול לקפוץ סביב אירועים מסוימים (שינוי מקום עבודה, שינוי סטטוס משפחתי, תקופות לחץ).
מודל ליניארי מתקשה לצייר “קו” אחד שמפריד. קרנלים מאפשרים גבולות מפותלים—ועדיין עם היגיון של דמיון.
מה הופך את זה ל-SVM: משקולות, hinge loss ו-“וקטורי תמיכה”
עד עכשיו תיארנו מודל שמחבר פעמונים. אבל Kernel SVM מוסיף שני דברים שמבדילים אותו:
- משקולות שנלמדות מהנתונים (במקום שכל נקודה תתרום אותו דבר)
- פונקציית הפסד hinge loss, שמייצרת דלילות (sparsity)
משקולות: לא כל נקודת עבר “שווה הצבעה”
בשלב הפשוט, לכל נקודה יש פעמון באותה “גובה”. אבל בעולם אמיתי זה לא הגיוני:
- יש תיקים שמאוד מייצגים הונאה (תבנית חזקה, ראיות, קשרים ברשת ספקים).
- יש תיקים שהם “רעש” או חריג חד-פעמי.
Kernel SVM לומד מקדמים (נהוג לסמן α_i) שמחליטים מי משפיע וכמה. מבחינה עסקית:
- נקודות מסוימות נהיות “דוגמאות עוגן”.
- אחרות כמעט לא משפיעות.
זה דומה לאינטואיציה של k-NN (“הדוגמאות הקרובות קובעות”), רק שפה זה קורה עם משקולות נלמדות, ולא עם “ספירה” נאיבית של שכנים.
hinge loss: למה SVM משאיר רק את החשובים
היתרון המעשי של SVM מגיע מה-hinge loss:
- אם נקודה מסווגת נכון ומרוחקת מספיק מהגבול → ההפסד שלה אפס.
- כשזה קורה, המודל יכול לתת לה
α=0.
הנקודות שנשארות עם α לא-אפס נקראות Support Vectors (וקטורי תמיכה).
בעולמות ביטוח/סיכון זה משמעותי כי:
- המודל נהיה דליל: לא צריך “לזכור” את כל ההיסטוריה כדי להחליט.
- ההסבר נהיה חד: “ההחלטה הושפעה בעיקר מ-12 מקרים היסטוריים דומים”.
שורה שנכנסת טוב למסמכי מודל: וקטורי התמיכה הם מקרי הגבול שמגדירים את כללי המשחק; השאר רק מאשררים אותם.
דוגמה ביטוחית קצרה: זיהוי הונאה בתביעות רכב עם RBF
נניח מודל שמסווג תביעה כחשודה/לא חשודה על בסיס שילוב מאפיינים (בפועל יש רבים, אבל נשמור על עיקרון):
- זמן בין תחילת פוליסה לתביעה
- סכום תביעה ביחס לשווי רכב
- מספר מעורבים/ספקים שחוזרים על עצמם
- היסטוריית תביעות קצרה
במקום לנסות “כלל ליניארי” כמו:
0.3*זמן + 0.7*סכום - 0.2*היסטוריה > סף
קרנל RBF מאפשר למדוד: כמה התביעה החדשה דומה למקרי עבר.
במודל Kernel SVM, ההחלטה היא סכום תרומות:
- מקרי עבר חשודים קרובים → דוחפים את הציון לשלילי/חשוד.
- מקרי עבר לגיטימיים קרובים → דוחפים לחיובי/לגיטימי.
- ורק “המקרים הקריטיים” (Support Vectors) נשארים פעילים.
התוצאה הטובה היא לא רק דיוק—אלא גם שיחה טובה יותר עם צוות תביעות:
- “התביעה דומה מאוד ל-3 מקרים שהוכרו כהונאה בגלל אותו ספק ושיעור נזק דומה.”
- “יש גם 2 מקרים לגיטימיים דומים, אבל המשקולות שלהם נמוכות כי הם רחוקים מהגבול.”
מאותו קרנל—מודלים שונים: הייצוג קבוע, עקרון הלמידה משתנה
יש משפט שמסדר את הראש:
הקרנל מגדיר את הייצוג. פונקציית ההפסד מגדירה את המודל.
אם משתמשים באותו RBF kernel אבל מחליפים loss:
- עם squared loss (כמו Kernel Ridge) נקבל מודל “צפוף”: כמעט כל נקודה תמשיך להשפיע.
- עם log loss (Kernel Logistic Regression) נקבל פרשנות הסתברותית יותר.
- עם hinge loss (Kernel SVM) נקבל דלילות ווקטורי תמיכה.
לביטוח זה כלי החלטה תכנוני:
- רוצים שקיפות תפעולית והסברים קצרים? דלילות של SVM עוזרת.
- רוצים הסתברויות לשימוש בתמחור/תעדוף תביעות? לעיתים לוגיסטי מתאים יותר.
איך “לעשות את זה נכון” בארגון: 6 בדיקות לפני שמטמיעים Kernel SVM
- בחירת מטריקה עסקית מראש: בתביעות, false positive עולה זמן עבודה; false negative עולה כסף. תגדירו עלות.
- נרמול/סטנדרטיזציה: קרנלים רגישים לסקייל. בלי זה, “דמיון” נהיה שגוי.
- כוונון
γו-Cעם Cross-Validation:γקובע כמה מקומי המודל.Cקובע כמה “סלחני” כלפי שגיאות.
- בדיקת יציבות ווקטורי תמיכה: אם כל ריצה נותנת סט שונה לגמרי—יש בעיית נתונים/רעשים.
- בדיקת Drift עונתית: דצמבר-ינואר בביטוח רכב/דירה יכולים להיות שונים. שימו ניטור חודשי.
- שכבת הסבר לאנשי מקצוע: תצוגה של 5–20 התרומות המובילות (מקרים היסטוריים) לכל החלטה.
למה זה משתלב בסדרת “בינה מלאכותית בתעשייה וייצור מתקדם”
בתעשייה חכמה, AI עושה דברים דומים: הוא משווה אירוע חדש לתבניות עבר—תקלה, סטייה באיכות, בלאי—ומחליט אם לעצור קו או לקרוא לטכנאי. בביטוח, האירוע הוא תביעה/מבוטח/סיכון. העיקרון זהה: איתור חריגים, הערכת סיכון, והחלטה תפעולית מהירה.
החיבור הפרקטי הוא ש-Excel והסברים “קטנים” הם לא צעצוע. הם הדרך הכי מהירה לייצר הבנה משותפת בין דאטה, משפטית, חיתום ותביעות—לפני שמתחילים לרוץ עם מודל כבד.
הצעד הבא: להפוך את הקרנל לכלי עבודה בניהול סיכונים
אם אתם רוצים שמודלי AI בביטוח לא יהיו קופסה שחורה, Kernel SVM הוא מקום טוב להתחיל ממנו: הוא נותן יכולת לא-ליניארית, ועדיין מאפשר להסביר החלטות דרך תרומות של מקרי עבר.
הייתי מתחיל בשאלה אחת שמכריחה דיוק: באיזה תהליך אתם רוצים שהמערכת תסביר “למה” בצורה שהצוות באמת ישתמש בה—חיתום, תביעות, או איתור הונאות? משם כבר אפשר לבחור נתונים, להגדיר עלויות, ולבנות פיילוט קטן—אפילו גיליון עבודה שמדגים את “הפעמונים” והמשקולות—כדי ליישר קו לפני הטמעה מלאה.