כמו כולנו, גם אני משתמש ב- AI להערכתי משלהי 2024 ומתפעל כל יום מחדש מהיכולות של המכונה הזו, עד שהחלטתי לכתוב מאמר זה יחד עם שתי ״קולגות״ – מערכות הבינה המלאכותית המוכרות ChatGPT ו- Gemini – כי עניין אותי התשובות שלהן לשאלה הכל כך מאיימת ׳מתי ה- AI יחליף אותי?׳.
בעשור האחרון, התרגלנו כאנשי רגולציה (RA) להרגיש חסינים. בעוד שמקצועות אחרים כמו שירות לקוחות, כתיבת תוכן ואפילו תכנות החלו להרגיש את נשיפתה של הבינה המלאכותית בעורפם, אנחנו נשענו לאחור בביטחון יחסי. הרי העבודה שלנו מורכבת מניואנסים, מפרשנות רגולטורית, מיחסים בין-אישיים עם רשויות ומקבלת החלטות אתיות באזורים אפורים. ״מחשב לא יכול להבין את דקויות ה- FDA או את המורכבות של ה- MDR״ אמרנו לעצמנו.
אבל בשנת 2024, הביטחון הזה החל להיסדק. מודלי שפה גדולים (LLMs) מדגימים יכולות מפחידות בניתוח טקסטים (גם משפטיים), בהשוואת דרישות בין טריטוריות ובכתיבת טיוטות להגשות. השאלה ״מתי ה- AI יחליף אותי?״ הפכה משאלה תיאורטית לשאלה קיומית. במאמר זה נצלול לעומק הסוגיה, נפרק את התהליך לשלבים, ונבחן כיצד השינוי משפיע באופן ספציפי עלינו, אנשי הרגולציה.
כדי להבין את איום ההחלפה, עלינו קודם-כל לפרק את תפקיד מנהל הרגולציה לגורמים. העבודה שלנו נעה על ציר שבין משימות טכניות-רפטטיביות לבין חשיבה אסטרטגית-יצירתית.
בצד הטכני, אנו עוסקים בסריקת ספרות (Literature Review), השוואת גרסאות של תקנים (Gap Analysis), ואיסוף מסמכים טכניים. בצד האסטרטגי, אנו בונים את ה- Regulatory Strategy, מנהלים משא ומתן עם רשויות וגופי התעדה, מקבלים החלטות ומנהלים סיכונים.
החדשות הרעות? הצד הטכני מהווה כ- 65% מזמנו של איש הרגולציה הממוצע, וזה בדיוק האזור שבו ה- AI כבר היום מתחיל לעקוף אותנו בסיבוב.
בעוד שהעקרונות דומים, היישום של AI משנה את כללי המשחק באופן שונה בכל סקטור:
רגולציית ה- MDR האירופית והדרישות הגוברות של ה- FDA יצרו ״חוב תיעודי״ עצום.
- הערכה קלינית (CER/PER): כתיבת דוח הערכה קלינית דורשת סריקה של אלפי מאמרים מדעיים. כלי AI יודעים היום לבצע סריקת ספרות (Systematic Literature Review) בתוך דקות, לסנן מאמרים לא רלוונטיים ולחלץ נתוני בטיחות וביצועים. מה שלקח לצוות שלם חודשיים, לוקח כעת ימים ספורים.
- מעקב לאחר שיווק (PMS): חברות מוצפות במידע על תלונות ודיווחים. מערכות AI מנטרות דפוסים של אירועים חריגים (Adverse Events) במאגרי מידע עולמיים (כמו MAUDE בארה״ב), ומזהות מגמות סיכון הרבה לפני העין האנושית.
- תאימות תוכנה (SaMD): כשמדובר בתוכנה רפואית, ה- AI משמש לא רק ככלי עבודה אלא לעיתים כמושא הרגולציה עצמו. מנהלי רגולציה נדרשים כעת להבין כיצד לתקף (Validate) אלגוריתמים המשתנים מעצמם (״Black Box AI״), אתגר שדורש סט כישורים חדש לחלוטין.
בתחום התמרוקים, הקצב מהיר יותר והשיווק אגרסיבי יותר. כאן ה- AI נכנס כ- ״שוטר״ וכ- ״מאיץ״.
- תיקוף טענות שיווקיות (Claims Substantiation): מחלקת השיווק רוצה לכתוב ״Anti-Aging בתוך 3 ימים״. כלי AI סורקים את הפורמולציה, משווים אותה למחקרים קיימים ולרגולציה המקומית (למשל, ההבדל בין EU ל- US), ומתריעים מיידית אם הטענה מסוכנת משפטית או דורשת ביסוס קליני נוסף.
- ניהול פורמולציות גלובלי (INCI Checks): עם כניסת רגולצית MoCRA בארה״ב והעדכונים התכופים באירופה (כמו איסור ה- Microplastics או אלרגנים חדשים), בדיקה ידנית של רשימת רכיבים מול עשרות מדינות היא סיוט. AI מבצע בדיקת תאימות (Compliance Check) לפורמולציה מול 80 מדינות בלחיצת כפתור, ומתריע על רכיבים אסורים או מוגבלים בריכוז.
- בניית תיק תמרוק (PIF): יצירה אוטומטית של ה- Product Information File, כולל דוחות בטיחות (CPSR), על בסיס נתונים גולמיים מהמעבדה.
השלב הנוכחי: ה-AI כמתמחה המוכשר (והמסוכן)
נכון להיום, הבינה המלאכותית לא מחליפה מנהלים, היא מחליפה פעולות. כלים ייעודיים לרגולציה כבר מסוגלים לבצע בתוך שניות מטלות מורכבות:
- ניטור שינויים גלובלי: מערכות AI סורקות אלפי אתרי רגולציה ביום, מזהות שינוי בדרישה בברזיל או בסין, ומתריעות רק אם זה רלוונטי לפורטפוליו המוצרים הספציפי של החברה.
- כתיבה ראשונית: יצירת טיוטה למענה לשאלות הבהרה מרשויות, בהתבסס על מאגר המידע הפנימי של החברה.
- בדיקת תוויות (Labeling): זיהוי חוסר תאימות בסימון סמלים (Symbols), גודל פונט או אזהרות חובה על גבי אריזות של מכשור רפואי או קרמים קוסמטיים.
בשלב זה, ה- AI מתפקד כ- ״מתמחה-על״. הוא מהיר, הוא קרא את כל האינטרנט, אבל הוא חסר שיקול דעת, הוא ״מזייף״ עובדות (הלוצינציות) והוא דורש פיקוח הדוק.
בנוסף, לפני שנדבר על החלפה, יש לדבר על האתיקה. כניסת ה- AI לרגולציה מביאה עמה שאלות מוסריות כבדות משקל שרק מנהל רגולציה אנושי ומנוסה יכול להתמודד איתן.
- הטיית נתונים (Bias) בציוד רפואי: מודלים של AI לומדים מהעבר. אם הנתונים ההיסטוריים עליהם התאמן המודל מוטים; למשל, ניסויים קליניים שבוצעו על אוכלוסייה שאינה מתאימה למקרה המסוים, ה- AI עלול להמליץ על אסטרטגיית אישור שמתעלמת מסיכונים לאוכלוסיות שונות. מנהל הרגולציה הופך כאן ל- ״שומר הסף האתי״, שצריך לשאול לא רק ״האם זה יעבור את ה- FDA?״, אלא ״האם הדאטה עליו התבססנו מייצג והוגן?״.
- בעיית ״הקופסה השחורה״: אחד מעקרונות הליבה ברגולציה הוא שקיפות. אם מערכת AI ממליצה לאשר מכשיר דיאגנוסטי מבוסס תוכנה, אך לא מסוגלת להסביר את ״נתיב קבלת ההחלטה״ שלה (Explainability), נוצרת בעיה רגולטורית ואתית. האם אנחנו מוכנים לסמוך על מכונה שאינה יכולה לנמק את מסקנותיה? תפקיד הרגולציה כאן הוא לדרוש הסברים שהמכונה לעיתים לא יודעת לספק.
- אמת מול מניפולציה: בתעשיית הקוסמטיקה, כלי AI גנרטיביים יכולים לייצר טקסטים שיווקיים וטענות (Claims) שעוברות ״על הקשקש״ מבחינה חוקית, אך עלולות להטעות את הצרכן. היכולת של איש הרגולציה האנושי להבחין בין ״אופטימיזציה שיווקית״ לבין ״הטעיה אתית״ היא קריטית לשמירה על אמון הציבור במותג.
המכשול הגדול של ה- AI: האחריות (Accountability)
הסיבה העיקרית לכך שמנהל הרגולציה לא יוחלף בזמן הקרוב טמונה במילה אחת: אחריות.
רגולציה, בבסיסה, היא ניהול סיכונים וביטחון הציבור. כאשר מוגש תיק לרישום תרופה, מכשיר MRI או אפילו קרם הגנה לתינוקות, ישנה ישות משפטית ופרסונה אנושית שחתומה עליו. אם ה- AI יבצע טעות בשיקול הדעת וייגרם נזק למטופלים, את מי נתבע? את האלגוריתם?
רשויות הבריאות (FDA, EMA, משרד הבריאות הישראלי וכד׳) בנויות על אמון ותקשורת בין בני אדם. היכולת לפנות לרגולטור, להסביר ניואנס של ״Substantial Equivalence״ במכשור רפואי או לשכנע לגבי בטיחות של חומר משמר בתמרוק – זו יכולת אנושית המבוססת על אינטליגנציה רגשית.
מתי יגיע המפנה האמיתי?
אם נסתכל קדימה, ניתן לשרטט את ציר הזמן הבא:
- הטווח המיידי (שנת 2026): עידן הקו-פיילוט.
ה- AI מוטמע בתוך מערכות ה- RIMS וה- eQMS. מנהלי רגולציה בציוד רפואי שילמדו להשתמש ב- AI לניתוח פערים (Gap Analysis) בין תקנים (למשל מעבר מגרסה לגרסה של ISO 13485) יחסכו שבועות של עבודה.
- הטווח הבינוני (2027-2030): רגולציה אוטונומית למחצה.
נראה מערכות AI שיבצעו את רוב ה- Submission Assembly באופן אוטומטי. המערכת ״תדע״ לקחת נתונים ממחלקת הפיתוח והאיכות ולייצר תיק הגשה טכני כמעט מושלם.
בשלב זה, הביקוש למנהלי רגולציה זוטרים ירד משמעותית. התפקיד יהפוך להיות כזה של ״עורך״ ו- ״מבקר״.
- הטווח הארוך (2030 ואילך): אינטגרציה מלאה.
הרגולטורים עצמם ישתמשו ב- AI כדי לבדוק הגשות. זה יהיה דיון של ״אלגוריתם מול אלגוריתם״.
אז מי יוחלף?
כנראה ש- AI לא יחליף אותך. מנהל רגולציה שמשתמש ב- AI יחליף אותך. מנהלי רגולציה שנמצאים בסיכון הם אלו ש:
- רואים את עצמם כ- ״פקידי ניירת״ וממלאי טפסים.
- נמנעים מטכנולוגיה ונצמדים לשיטות עבודה ידניות.
- מתמקדים ב- ״איך״ (למלא את הטופס) במקום ב- ״למה״ (מה האסטרטגיה הנכונה).
סיכום: מעבר מ- ״שומר סף״ ל- ״נווט אסטרטגי״
השאלה היא לא מתי ה- AI יחליף אותנו, אלא אילו חלקים מהתפקיד שלנו אנו מוכנים לשחרר בשמחה. העבודה השחורה של בדיקת רשימות רכיבים בתמרוקים או סריקת ספרות לציוד רפואי – כל אלו עתידים להיעלם. זה משאיר אותנו עם הליבה האמיתית של המקצוע: החשיבה, האסטרטגיה, והאחריות לבריאות הציבור.
ובנימה אישית, כמי שעוסק בתחום מעל 20 שנה ונעזר (כמו כולם) ב- AI, אין לנו מנוס מלהפנים את העובדה המוגמרת שהעתיד של כולנו צופן שינוי, ודאי משמעותי, שעדיין אינו ברור לנו ולכן אנו משערים מה יוליד יום. עם זאת, השינוי שיקרה יהיה חייב לשרת אותנו כבני אדם, אחרת לא יהיה לו שימוש, ולכן יידרש לעמוד מאחורי (או לפני) המכונה – בן אנוש, שניתן יהיה לתקשר מולו ועמו.
בסופו של דבר, המכונה תשמש תמיד את בן האנוש ולכן גם בתחום הרגולציה תחליף אותו בפעולות שכיום (או עד היום) ביצענו באופן ידני וכעת אנו יכולים לבצע אותו באמצעות AI וכדאי לשים לב שבעיקר מדובר על העבודה הסיזיפית.
צורת חשיבה שמשלבת את הרגישות האנושית תמשיך להיות רלוונטית ותידרש כל עוד הצד השני או המשתמש הוא אנושי.