AI בשירות תוקפי הסייבר: איך נראית הגנה במאבק שאינו רק טכנולוגי
ככל שהכלים החכמים מתעצמים, גם התוקפים משתדרגים, והמאבק במרחב הדיגיטלי הופך למשחק אסטרטגי שמתרחש הרבה מעבר לשכבות ההגנה הטכנולוגיות

תמונה:dreamstime
ה-AI הכניס את עולם הסייבר לטלטלה אדירה, אך נראה כי על השינוי הדרמטי ביותר אחראית התופעה של מתקפות סייבר מונעות בינה מלאכותית (AI) באופן אוטונומי. אם בעבר תוקפים הסתמכו על כתיבת קוד זדוני ידני או שימוש בכלים קיימים, כיום אנו עדים למתקפות שבהן האלגוריתמים עצמם לומדים ומבצעים תקיפה כמעט ללא מעורבות אנושית.
על מה בדיוק אנחנו מדברים? מתקפת סייבר המבוססת על מערכת AI אוטונומית מסוגלת לנתח במהירות כמויות עצומות של מידע ציבורי ופרטי; לזהות פרצות במערכות מטרה ולהתאים עצמה בזמן אמת להגנות חדשות; להשתמש בשיטות הסוואה והתחמקות ממערכות הגנה מסורתיות; וגם לשכפל עצמה ולבצע התקפות מקבילות על מטרות רבות בו-זמנית.
מדובר בשילוב של וקטורים התקפיים מוכרים עם יכולות הסתגלות מתקדמות של AI, מה שהופך את הזיהוי והתגובה למשימה מאתגרת במיוחד.
לאחרונה קבוצות תקיפה קיבלו אחריות על פריצות משמעותיות לחברות גלובליות בענפי הרכב והקמעונאות, בין היתר Marks & Spencer, Jaguar Land Rover ו-The Co‑operative Group. בפריצות האלה, כך דווח בתקשורת, השתמשו התוקפים בכלים אוטונומיים ללכידת נתונים ולשיבוש שרשראות אספקה.
לאחרונה גם שמענו על מתקפות פישינג שהופעלו על ידי בוטים חכמים, מותאמים אישית לנמענים על בסיס ניתוח רשתות חברתיות, פעילות שבעבר נדרשו לה שעות רבות של עבודה. מתקפות מסוג כזה הביאו ארגונים בעולם הפיננסי, בנקים וחברות פינטק להגביר את רכישת ביטוחי הסייבר מחשש שהן יגרמו להפסדים אדירים עקב חוסר יכולת תגובה מספקת.
במקביל, ההשקעות בפתרונות הגנה מפני מתקפות AI אוטונומיות רק הולכות וגדלות. על פי הערכות שוק, משנת 2022 הושקעו יותר מ-730 מיליון דולר בחברות המפתחות טכנולוגיות AI להגנת סייבר עצמית, וניכרת עלייה חדה בביקוש ל-(AI-DR (AI-Driven Response – מערכות מבוססות בינה מלאכותית המנטרות התנהגות חריגה באמצעות למידת מכונה, מזהות מתקפות בזמן אמת ומגיבות אליהן באופן אוטומטי. זאת לצד יישום פעילות מודיעין איומים מתקדם, המשלב מקורות מודיעין גלובליים שמוזנים ישירות לאלגוריתמים כדי להתריע על מגמות חדשות.
החזית החדשה
ארגונים בכל הסקטורים ובכל העולם מתמודדים כיום עם ארבעה אתגרים מרכזיים בכל הקשור למתקפות AI אוטונומיות:
מהירות וקצב הסתגלות: מערכות AI התקפיות מסוגלות ללמוד בזמן אמת את דפוסי ההגנה של הארגון ולהתאים עצמן תוך שניות. בניגוד למערכות הגנה שנדרשות לאישור, בדיקה או עדכון תוכנה, האלגוריתמים של התוקפים מבצעים ניסוי וטעיה בקצב בלתי אנושי. המשמעות היא שארגון שמסתמך על הגנות סטטיות, גם אם מתקדמות, נמצא תמיד צעד אחד מאחור.

תמונה:dreamstime
הפתרון האפשרי הוא מעבר ממודלים תגובתיים לגישה פרואקטיבית, שבה ההגנה עצמה חוזה את הצעד הבא של היריב. דהיינו, יצירת תרחישי תקיפה אמיתיים ותקיפה יזומה של מערכות הארגון כדי לחשוף חולשות עוד לפני שהתוקף האמיתי יעשה זאת. לשם כך יש להפעיל מערכות הגנה מבוססות AI לצד פעילות של צוותים אדומים, פנימיים או חיצוניים, המדמים מתקפות אוטונומיות על הארגון ומאתגרים את מערכות ההגנה.
האדם הוא חוליה חלשה: מתקפות AI אינן רק טכנולוגיות, הן פסיכולוגיות. בינה מלאכותית מסוגלת לייצר הודעות פישינג או התחזות שמבוססות על ניתוח התנהגות, תחומי עניין וקשרים חברתיים של אדם ספציפי. התוצאה היא מתקפות שמרגישות "אמיתיות מדי", והעובדים הופכים ליעד מדויק יותר מאי פעם.
בחלק גדול מהמקרים הטכנולוגיה אינה יכולה להגן על שיקול דעת אנושי. הפתרון נעוץ בתרבות ארגונית של מודעות ותגובה, שבה כל עובד הוא חלק ממערך ההגנה. הדרכות ממוקדות, סימולציות תקיפה והבנה של שיטות ההטעיה החדשות הופכות לכלי קריטי, לא רק למערך ה-IT, אלא לכלל העובדים. קיים צורך קריטי ביצירת תרבות ארגונית שבה כל עובד מבין את הסיכונים של Shadow AI וכלי Generative AI בשימוש יומיומי.
רגולציה ואתיקה: בעוד שהעולם רץ קדימה עם פיתוחי AI, מסגרות הפיקוח והרגולציה נותרו מאחור. התוצאה היא "שטחים אפורים" שבהם תוקפים וארגונים פועלים ללא גבולות ברורים של אחריות, שקיפות או הגדרה אתית. האיחוד האירופי וה-NIST בארה"ב מקדמים מסגרות עבודה חדשות לניהול סיכונים ייחודיים ל-AI. בישראל, רשות הסייבר הלאומית מציינת בדוחותיה האחרונים כי מערכות AI לא מבוקרות ("Shadow AI") כבר אחראיות ליותר מ-20% מהדליפות הארגוניות שדווחו ב-2024.
ארגונים נדרשים כיום לא רק להגן על עצמם, אלא גם להחליט איך להשתמש ולנהל כלי AI באופן אחראי. מי שמיישם מנגנוני בקרה פנימיים מבצע הערכות סיכונים מוסריות, מיישם ארכיטקטורת "אפס אמון" (Zero Trust) האוכפת גישה קפדנית שבה אין אמון מובנה באף מערכת או משתמש ומיישם מדיניות ברורה לשימוש בכלים מבוססי AI ייהנה מיתרון אסטרטגי של אמון, לא רק של אבטחה.
זיהוי אנומליות: אחד הקשיים הגדולים ביותר בהגנת סייבר כיום הוא היכולת לזהות מה באמת חריג בתוך ים עצום של נתונים. ארגונים סורקים מדי יום מיליוני אינדיקטורים – לוגים, פעולות משתמשים, תעבורת רשת, אירועים במערכות – אך הרעש העצום שנוצר גורם לכך שהאינדיקציה הקריטית באמת נבלעת בסטטיסטיקה.
בעבר, אנומליה הייתה "התנהגות לא רגילה", כמו כניסה ממדינה לא מוכרת או העלאה של קובץ חשוד. אבל בעידן שבו מערכות AI התקפיות מחקות דפוסים אנושיים ולומדות להתאים עצמן לסביבה, החריגים עצמם כבר נראים נורמליים. זו מציאות חדשה שבה האלגוריתם התוקף מבצע "הסוואה התנהגותית", כלומר מתנהג בדיוק כמו עובד אמיתי, תוך שמירה על תבניות שימוש רגילות, כדי לא לעורר חשד.
כעת האתגר של מנהלי אבטחת המידע הוא ההצפה במידע שאינו ניתן לעיבוד אנושי. מערכות ניטור מתקדמות מייצרות לעיתים אלפי התראות ביום, שרובן כוזבות. המשמעות היא שהתוקף יכול לפעול באין מפריע, כי הוא יודע להיטמע בתוך הסטנדרט.
העתיד של זיהוי אנומליות טמון בשילוב בין AI הגנתי לבין מומחיות אנושית פרואקטיבית. שילוב שבו מערכות AI אינן פועלות לבד, אלא לומדות מדפוסי החשיבה של אנליסטים אנושיים ומיישמות אותם בקנה מידה רחב.
מתקפות AI אוטונומיות כבר כאן, והמאבק בהן אינו רק טכנולוגי, הוא תרבותי, כלכלי ואף מוסרי. ארגונים נדרשים לא רק להשקיע בטכנולוגיות מתקדמות, אלא גם לבנות אסטרטגיה ארגונית מקיפה הכוללת בקרה רגולטורית, הכשרה אנושית ושיתוף פעולה בינלאומי.
ככל שהבינה המלאכותית הופכת לחלק בלתי נפרד מהחיים הדיגיטליים, כך עולה גם החשיבות בהצבת גבולות ברורים לשימוש בה, ובפיתוח מערכות הגנה שיכולות "לחשוב" בקצב של היריב. השאלה הקריטית כיום היא כיצד ארגון יצליח להגיב בזמן אמת ולצמצם את הפגיעה?
אז איך מתגוננים במאבק שאינו רק טכנולוגי? המאבק החדש הוא על תפיסת ההגנה כולה. ההבדל בין ארגון שישרוד מתקפת סייבר מבוססת AI לבין ארגון שיקרוס הוא לא רק בטכנולוגיה שבידיו, אלא בתרבות הארגונית, בקצב החשיבה ובחזון הניהולי.
ארגונים צריכים כעת לבנות אסטרטגיית הגנה הוליסטית שמחברת בין שלושה רבדים:
הטכנולוגי – מערכות הגנה מבוססות AI לניתוח אנומליות בזמן אמת.
האנושי – הכשרות, סימולציות ותרבות של מודעות ואחריות.
האסטרטגי – חיזוי ותקיפה יזומה, כדי לדעת לא רק כיצד להגן אלא כיצד לחשוב כמו התוקף.
המאבק אינו רק טכנולוגי כי הוא מאבק על הבנה, מהירות ויכולת לראות קדימה. ארגונים שישכילו לפתח מודלים של חשיבה התקפית לצד תרבות ארגונית ערה, יהיו אלה שיצליחו לשמור על חוסנם בעולם שבו גם הבינה המלאכותית כבר הפכה לשחקן בשדה הקרב.
אלון אהרון הוא מנכ"ל Armory Defense