0
sync logo
SYNCבלוג בינה מלאכותית

רגולציה של AI בתעשיה הרפואית

ינואר 2026

בשנים האחרונות הפכה הבינה המלאכותית (AI) ממילת באזז לכלי עבודה ממשי בכל תחום וענף, ומשולבת בפיתוח מוצרים רפואיים, בניסויים קליניים, ציות (Vigilance), בייצור, ובאופן הולך וגובר גם בפיתוח ציוד רפואי ותמרוקים ״חכמים״; אבל לצד ההזדמנויות – קיצור זמני פיתוח, חיזוי יעילות, הפחתת ניסויים בבעלי חיים – עולה שאלה קריטית: איך רגולציה אחראית אמורה להיראות בעידן של אלגוריתמים לומדים?

 

בינואר 2026 פרסמו ה- EMA וה- FDA מסמך עקרונות Guiding Principles of Good AI Practice in Drug Development – מסמך שמסמן את הנתיב הרגולטורי לשימוש בבינה מלאכותית.

 

למה המסמך הזה חשוב?

למרות שהמסמך מתמקד בפיתוח תרופות ומוצרים ביולוגיים, העקרונות שבו משקפים תפיסה רגולטורית גלובלית רחבה יותר, שכבר מחלחלת, לציוד רפואי מבוסס תוכנה (SaMD, AI/ML medical devices), לקוסמטיקה מתקדמת (למשל אלגוריתמים להערכת בטיחות חומרים, התאמה אישית, ניתוח עור) ולמערכות איכות חוצות-תחומים.

כמי שעוסק ברגולציה ואיכות של ציוד רפואי ותמרוקים, ברור לי שמי שיאמץ את העקרונות האלו מוקדם – ינוע מהר ובטוח יותר מול רגולציות בכל יעד בעולם, ולכן אתייחס לעיקרי העקרונות והמשמעות הרגולטורית בפועל של המדריך שפורסם, עם תרגום לשפה יישומית:

 

תכנון ממוקד-אדם (Human-Centric by Design)

AI אינו ״קופסה שחורה״. האחריות תמיד נשארת בידי אדם.
משמעות רגולטורית: הגדרת אחריות, מנגנוני בקרה אנושיים, והימנעות מהסתמכות עיוורת על אלגוריתם.

 

גישה מבוססת-סיכון (Risk-Based Approach)

לא כל מודל AI שווה ברמת הסיכון שלו.
רגולטורים מצפים להתאמה בין רמת הסיכון של השימוש לבין עומק הוולידציה, התיעוד והבקרה.

 

עמידה בתקינה (Adherence to Standards)

AI חייב להשתלב בתוך מסגרות איכות קיימות (אבטחת מידע, פרטיות, ורגולציה מקומית).
אין ״מסלול עוקף רגולציה״ (בוודאי לטכנולוגיה מתקדמת חדשה).

 

הקשר שימוש ברור (Clear Context of Use)

נתחיל ונשאל: ״למה המערכת משמשת – ולמה לא?״
הגדרה לא מדויקת של ה- Context of Use היא אחד הכשלים הרגולטוריים הנפוצים ביותר.

 

מומחיות רב-תחומית

שילוב בינה מלאכותית בפיתוח מוצרים הבאים במגע עם גוף האדם מחייב שיתוף פעולה בין תחומים רבים, ביניהם: רגולציה, איכות, בסיסי נתונים, מערכות ממוחשבות ומשפטי.
הרגולטור מצפה לראות תכנית או התייחסות כתובה – וגם שמיושם בפועל.

 

ניהול נתונים ותיעוד (Data Governance & Documentation)

מקור הנתונים, איכותם, עיבודם והחלטות אנליטיות – הכל חייב להיות מתועד, בר עקיבות (traceability) וניתן לביקורת, בהתאם למערכת האיכות של הארגון.

 

פיתוח מודלים לפי Best Practices

לא מספיק ״מודל שעובד״; נדרשת שקיפות, יכולת הסבר (Explainability), עמידות והכללה – במיוחד כשמדובר בהחלטות שמשפיעות על בטיחות מטופלים או צרכנים.

 

הערכת ביצועים מבוססת-סיכון

בדיקות המודל חייבות לשקף שימוש אמיתי, כולל אינטראקציה אדם-מערכת.
זהו שינוי תפיסתי משמעותי ביחס לוולידציות קלאסיות.

 

ניהול מחזור חיים (Life Cycle Management)

AI אינו מוצר סטטי... נדרשים מנגנונים לניטור מתמשך, טיפול ב- Data Drift ועדכונים מבוקרים (רלוונטי גם ל- PMS).

 

מידע ברור ונגיש

שקיפות אינה רק מול הרגולטור – אלא גם לטובת המשתמשים, הצוותים הרפואיים ולעיתים הצרכנים.
שפה פשוטה, הצגת מגבלות והסברים – הם חלק מדרישות מערכת האיכות.

 

אז מה אני עושה עם זה בפועל?

מסמך העקרונות Guiding Principles of Good AI Practice in Drug Development אינו רק ״המלצה״ – אלא סמן כיוון רגולטורי ברור ומאותת לתעשייה שחדשנות מבורכת, אך מחויבת באחריות, בשקיפות, ובשליטה. כך שאם אתם מפתחים תרופה, ציוד רפואי או תמרוק המשלב AI, זה הזמן לעצור, לשאול את השאלות הנכונות, ולבנות תשתית רגולטורית שתעבוד בשבילכם, לא נגדכם.

כאן בדיוק נכנס הערך האנושי-מקצועי שמסייע בתרגום עקרונות גלובליים לדרישות אופרטיביות, בניית אסטרטגיה רגולטורית ל- AI כבר בשלבי הפיתוח, שילוב AI במערכות איכות קיימות (כגון ISO, GMP, GDP), הכנה לביקורות רגולטוריות עתידיות – ולא כיבוי שריפות בדיעבד.

 

איך זה נראה באמת?

רגולציה של AI אינה תיאורטית. היא כבר נבחנת כיום בפועל בתוך תיקי רישום, שאלות רגולטוריות ומבדקי איכות. להלן מספר דוגמאות אופייניות מהשטח:

 

דוגמא 1: שימוש ב- AI לחיזוי רעילות – ״המודל עובד, אבל איפה ההוכחה?״

הקשר רגולטורי:
חברת ביוטק שילבה מודל AI לחיזוי רעילות כימית מוקדמת (early toxicity screening) במטרה לצמצם ניסויים בבעלי חיים.

מה ציפה ה- FDA לראות?

  • הגדרה מדויקת של Context of Use: האם המודל מחליף ניסוי? תומך בהחלטה? מסנן מועמדים בלבד?
  • תיעוד מקור הדאטה: מאגרי מידע, איכות הנתונים, הטיית ההשפעה (bias impact).
  • השוואה למודלים קלאסיים ולנתוני אמת.

ה- FDA שאל:

“Explain how model performance was validated for the intended use and how false negatives are mitigated”

הלקח:
גם אם AI לא מקבל החלטה קלינית סופית – עצם השפעתו על קבלת החלטות מחייבת ולידציה מבוססת-סיכון בהתאם לעקרונות ה- EMA/FDA.

 

דוגמה 2: ניסוי קליני עם אלגוריתם לבחירת חולים – ה- EMA מבקש שקיפות

הקשר רגולטורי:
בניסוי קליני (שלב II) נעשה שימוש באלגוריתם לזיהוי חולים ״סבירים להגיב״ לטיפול.

נקודת הכשל הנפוצה:
האלגוריתם תואר כ- ״כלי סטטיסטי מתקדם״ – ללא פירוט מספק.

דרישות ה- EMA בפועל:

  • תיאור ברור של האלגוריתם בפרוטוקול וב- IMPD.
  • הסבר על השפעתו על אוכלוסיית הניסוי.
  • ניתוח סיכון להטיה.
  • הגדרה ברורה לאחריות אנושית.

הלקח:
AI אינו ״עניין של Data Science בלבד״ – אלא רכיב רגולטורי לכל דבר.

 

דוגמה 3: ציוד רפואי מבוסס AI – מתי זה כבר SaMD?

תרחיש נפוץ:
אלגוריתם לניתוח תמונות רפואיות שפותח במקור ככלי תומך R&D ומשמש בפועל בקבלת החלטות קליניות.

תגובת ה- FDA:

  • שינוי סיווג רגולטורי.
  • דרישה לתיק טכני מלא.
  • ולידציה קלינית.
  • תוכנית Life Cycle Management (כולל Data Drift).

לכן, כדאי לשאול בשלב מוקדם:

״האם מישהו עלול להשתמש בזה כדי לקבל החלטה רפואית – גם אם זו לא הייתה הכוונה המקורית?״

הלקח:
ה- Context of Use האמיתי הוא זה שקובע – לא רק מה שנכתב במסמכים שיווקיים...

 

לסיכום, ה- AI כבר כאן. השאלה היא לא אם רגולציה תגיע – אלא איך להיערך אליה... חברות שמשלבות רגולציה כבר בשלבי הפיתוח, חוסכות עיכובים, מצמצמות שאלות רגולטוריות ומגיעות לשוק מהר ובטוח יותר.

בהצלחה.

צרו קשר
cross
0
    0
    עגלה ריקהחזרה לחנות