סטארטאפים ישראליים מחוץ ל-HealthTech מלמדים איך לבנות AI ברפואה: נתונים, בטיחות, סייבר והטמעה. קבלו עקרונות וכלים פרקטיים.

בינה מלאכותית בבריאות: מה אפשר ללמוד מסטארטאפים ישראליים
בדצמבר 2025, קל להתבלבל בין “עוד חידוש טכנולוגי” לבין שינוי אמיתי שמגיע לשטח. אבל יש סימן די אמין לזהות מה יחזיק מים: סטארטאפ שמסוגל לחבר AI לתהליך פיזי, רגולטורי ותפעולי — ולספק תוצאה מדידה. בדיוק מה שמערכת הבריאות צריכה: פחות מצגות, יותר פרוטוקולים שעובדים.
לא במקרה, הרבה מהחברות הישראליות שמסומנות כ”השפעה עתידית” בכלל לא מוגדרות כ-HealthTech. חשמל בתעופה, שוקולד מתורבת, נגד-רחפנים, אבטחת סייבר למטוסים ומים — נשמע רחוק מרפואה. בפועל, אלו אותם מנגנונים שמניעים AI בבתי חולים, בביוטכנולוגיה ובפיתוח תרופות: מודלים שמחליטים תחת אי-ודאות, מערכות חישה, אבטחה, ויכולת לעמוד בתקנים.
הפוסט הזה הוא חלק מסדרת "בינה מלאכותית בתחום הבריאות והביוטכנולוגיה", והזווית שלי ברורה: מי שרוצה לייצר לידים איכותיים בתחום — יצליח יותר כשהוא מדבר על יכולת ביצוע (מוצר, נתונים, רגולציה, תפעול) ולא רק על אלגוריתמים.
הדפוס שחוזר בכל החידושים: AI הוא לא “פיצ’ר”, הוא מערכת
התשובה הקצרה: בבריאות, AI מצליח כשמתייחסים אליו כמערכת שלמה — נתונים, חיישנים, אבטחה, תהליכים ורגולציה — ולא כמודל מבודד.
הכתבה המקורית מציגה 10 סטארטאפים ישראליים מתחומים שונים. כשמסתכלים עליהם דרך משקפיים של בריאות וביוטק, רואים ארבע שכבות שחוזרות שוב ושוב:
- איסוף נתונים רציף (חיישנים/לוגים/טלמטריה)
- אנליטיקה מבוססת AI (זיהוי חריגות, חיזוי, אופטימיזציה)
- תגובה בזמן אמת (החלטה תפעולית, אוטומציה, “סגירת לופ”)
- עמידה בסיכונים ובתקינה (אבטחת סייבר, בטיחות, אימות)
בבתי חולים זה נראה כמו ניטור חולה, התראות מוקדמות, הקצאת משאבים, וניהול סיכוני סייבר למכשור רפואי. בחברות תרופות זה נראה כמו ניסויים, ייצור, שרשרת אספקה ואיכות.
מה זה נותן לקורא שעוסק בבריאות?
אם אתם מנהלי חדשנות, CTO, מנהלי דאטה או רגולציה — זה כלי חשיבה: במקום לשאול “איזה מודל נבחר?”, תשאלו:
- מה מקורות הנתונים ומה איכותם?
- איך המודל יפעל בתנאי אמת (רעש, חוסרים, עומסים)?
- מי מקבל החלטה בסוף: אדם, מערכת, או שילוב?
- איפה נקודת הכשל המסוכנת ביותר ומה תוכנית המיגון?
כשחומרים ו-AI נפגשים: שוקולד מתורבת כהכנה לביוטק תפעולי
התשובה הישירה: Celleste Bio מדגימה איך משלבים ביולוגיה תעשייתית עם מודלים כדי לייצר מוצר עקבי מהר — וזה בדיוק האתגר בביופרוססינג רפואי.
הדוגמה הכי “ביוטקית” מבין החברות כאן היא Celleste Bio: ייצור חמאת קקאו מתאי פולים בתרבית, עם מודלים מבוססי AI לאופטימיזציית תנאי גידול. בכתבה מופיע נתון חד: הבשלה תוך 7 ימים בביוריאקטור עד שאפשר לקצור את החומר.
בריאות וביופארמה חיות על אותו כאב: סטנדרטיזציה של תהליך ביולוגי. אם אתם מייצרים חלבון תרפויטי, וקטור ל-gene therapy, או תרבית תאים — כל סטייה קטנה בתנאי גידול יכולה לשנות תשואה, איכות, וסיכון רגולטורי.
שלוש תובנות פרקטיות לביוטכנולוגיה רפואית
- AI צריך להיכנס מוקדם לתהליך: לא רק בקרת איכות בסוף, אלא אופטימיזציה של התנאים בזמן אמת.
- מדדים “מובילים” עדיפים על “מאחרים”: לא לחכות למדידת מוצר סופי. להסתכל על מדדי תרבית (pH, טמפ’, צריכת חמצן, מטבוליטים) ולחזות תוצאה.
- שחזוריות היא מטבע רגולטורי: מודל שלא מתועד ושאי אפשר להסביר איך התקבלה החלטה — ייתקע בדיוק איפה שמוצר רפואי נבחן.
אם אתם בונים פתרון AI לביופרוססינג, שווה “לגנוב” מעולמות של פודטק מתורבת: הם נמדדים באותו KPI קשוח — מוצר עקבי, עלות, וייצור בקנה מידה.
בטיחות, אמון וסייבר: למה זה הופך קריטי בבריאות דיגיטלית
התשובה הפשוטה: כש-AI נכנס למערכות קריטיות, אבטחה ואמון הם חלק מהקליניקה.
כמה מהסטארטאפים בכתבה מתעסקים באבטחה מזוויות שונות: חשיפת בוטים ודיסאינפורמציה (Cyabra), סימולציית תקיפה לארגון (Pentera), סייבר למטוסים (Cyviation) והגנת תשתיות מים באמצעות AI (IXDen). אלה לא “עוד שכבת אבטחה”; אלה מתודולוגיות.
בבריאות הדיגיטלית, האיומים דומים:
- מתקפות על בתי חולים משביתות פעילות קלינית (כופר/השבתה).
- דליפת נתוני מטופלים פוגעת באמון ובציות.
- זיוף זהויות/חשבונות יכול להטעות מטופלים בטלה-רפואה.
- מכשור מחובר (IoMT) הוא נקודת תורפה שגדלה מהר יותר מהיכולת לתחזק.
מה לקחת מהמודלים הללו לתחום הבריאות
- מודל איום לפני מודל ML: אם אין מיפוי נכסים, נקודות חיבור וסיכוני שרשרת אספקה — המודל לא מציל.
- תרגול תגובה הוא מוצר: הרעיון של “אימוני סייבר לטייסים” מ-Cyviation מקביל ליכולת שארגון בריאות ינהל אירוע: מי מחליט, מה מכבים, איך ממשיכים טיפול.
- זיהוי חריגות בקנה מידה: IXDen מנתחת 300 מיליון נקודות נתונים ביום בתשתיות מים. בתי חולים גדולים יכולים להגיע לסדרי גודל דומים בלוגים קליניים/תפעוליים. מי שלא בונה יכולת Observability אמיתית, יפספס את החריגה החשובה.
משפט שאני חוזר עליו מול צוותים רפואיים וטכנולוגיים: “AI בלי אבטחה הוא פשוט דרך מהירה יותר לטעות.”
אוטונומיה בזמן אמת: מרחפנים ותעופה למה שקורה ביחידה לטיפול נמרץ
התשובה הישירה: מערכות אוטונומיות מלמדות את הבריאות איך לתכנן החלטות בזמן אמת עם גבולות ברורים, כי שגיאה אחת עולה ביוקר.
בכתבה מופיעים שני כיוונים אוויריים: מטוס חשמלי (Eviation) ומוניות-רחפן עירוניות (Dronery ו-AIR). בנוסף, רחפן “צייד” (Robotican) שתופס רחפנים אחרים — מערכת אוטונומית עם זיהוי, מרדף ותגובה.
מה הקשר לבריאות? בטיפול נמרץ, בחדר ניתוח, ובניהול עומסים בחורף (שפעת, RSV, קורונה בגלים), המערכת נדרשת ל:
- חיזוי עומסים (מיטות, צוות, ציוד)
- תיעדוף משימות (טריאז’, שינוע, בדיקות)
- תגובה מהירה (שינוי פרוטוקול, הפניית משאבים)
שלושה עקרונות תכנון שאפשר ליישם ב-AI קליני
- החלטות קצרות מחזור: כמו טיסה/רחפן — החלטות כל שניות/דקות, לא פעם ביום.
- Fail-safe ברור: מה קורה כשהמודל לא בטוח? ברפואה, “לא בטוח” חייב להתבטא בהעברה לאדם, או בפרוטוקול שמרני.
- אופטימיזציה תחת מגבלות: תעופה חשמלית עובדת עם מגבלות סוללה וטעינה (למשל טעינה מהירה של כ-30 דקות לפי הכתבה). בבריאות המגבלות הן זמן צוות, זמינות מכשירים, ותקני בטיחות.
המסר: מי שבונה מוצר AI רפואי צריך לחשוב כמו מהנדס בטיחות, לא רק כמו מדען נתונים.
“בן אדם או מכונה?”: למה אמינות שיחה היא חלק מהטיפול
התשובה הישירה: ב-2025, היכולת לזהות בוטים ולנהל שיחה אמינה היא תשתית לטלה-רפואה ושירות מטופלים.
המשחק של AI21 Labs (“Human or Not”) הוא לא רק גימיק. הוא מציף אמת לא נוחה: משתמשים מתקשים להבחין בין אדם למכונה, במיוחד כשמודלים יודעים להתאים “אישיות” ולשלב הקשר.
במערכת הבריאות זה נוגע ישירות ל:
- מוקדי תיאום תורים ושירות
- צ’אט טריאז’ ראשוני
- תמיכה למטופלים כרוניים בבית
- הנחיות תרופות והתנהלות אחרי שחרור
כללי אצבע לבניית חוויית AI אמינה למטופלים
- זיהוי ברור: המטופל צריך לדעת אם הוא מדבר עם מערכת או אדם.
- תיעוד קליני מסודר: שיחה חייבת להישמר בצורה שניתן לסקור.
- גבולות אחריות: איפה הצ’אט עוצר ומעביר לאחות/רופא.
- מדדי איכות: לא רק CSAT. למדוד טעויות מסוכנות, הסטות לא נכונות, ועמידה בפרוטוקולים.
אם אתם מציעים פתרון AI לשירות מטופלים, אל תמדדו את ההצלחה רק לפי “כמה שיחות נחסכו”. המדד הנכון הוא כמה מצבים מסוכנים זוהו והועברו בזמן לגורם קליני.
שאלות נפוצות שמנהלים שואלים לפני אימוץ AI בבריאות
איך בוחרים פרויקט AI ראשון בבית חולים או בחברת ביוטק? בחרו תהליך עם נתונים זמינים, תוצאה מדידה תוך 60–90 יום, וסיכון קליני נשלט. לדוגמה: חיזוי אי-הגעה לתורים, אופטימיזציית תורים, או ניטור תקלות ציוד.
מה השגיאה הכי נפוצה? לנסות “לפרוס מודל” לפני שיש תהליך עבודה ברור. מודל חיזוי שלא משולב בהפעלה, אחיות, רופאים ותיעוד — נשאר דשבורד.
איפה סייבר נכנס לתמונה? מהיום הראשון. כל אינטגרציה למערכות קליניות, מכשור, או ענן רפואי היא נקודת תקיפה אפשרית. תכנון אבטחה אחרי הפיילוט עולה פי כמה.
הצעד הבא: להפוך השראה לתוכנית עבודה בריאותית
הדברים הכי מעניינים בחדשנות הישראלית הם לא הסיפורים, אלא הדפוסים: איסוף נתונים, AI שמקבל החלטות, תגובה בזמן אמת, ועמידה בתקנים. מי שמיישם את הדפוס הזה בבריאות ובביוטכנולוגיה, מקצר זמן לאימפקט ומגדיל סיכוי לאימוץ אמיתי.
אם אתם מובילים חדשנות בארגון בריאות, או בונים מוצר AI לביוטק, הנה תרגיל קצר שעובד לי כמעט תמיד: כתבו על עמוד אחד את “הלופ” של המערכת — נתון → החלטה → פעולה → אימות. אם חסר שלב, הפיילוט ירגיש כמו ניסוי ולא כמו מוצר.
איזו שכבה אצלכם הכי חלשה כרגע — הנתונים, ההטמעה בתהליך, או האבטחה — ומה תעשו השבוע כדי לסגור את הפער?