חברת CrowdStrike מצטרפת ל־AI Factory של אנבידיה
פלטפורמת Falcon של CrowdStrike נכנסת לחזון של NVIDIA כדי לספק יכולות אבטחה מבוססי AI

תמונה: dreamstime
ככל שיותר ארגונים מכניסים את הבינה המלאכותית לתוך התשתית המבצעית שלהם, עולה שאלה פשוטה אבל חשובה: מי שומר על המודלים עצמם? לא על הנתונים שנכנסים, ולא על השרתים שמריצים אותם, אלא על מה שקורה באמצע: האלגוריתם שמנתח את המידע ונותן תשובה.
ה־AI Factory של אנבידיה בנוי כתשתית אחודה, שנועדה ללוות את כל מחזור החיים של בינה מלאכותית – מהזנת דאטה ואימון מודלים ועד לפריסה והפעלה בפועל. הארכיטקטורה הזו, שניתנת לפריסה מקומית על גבי תשתיות Blackwell, נועדה להנגיש לארגונים את היכולת לבנות ולהריץ מערכות AI מבוססות סוכנים או תהליכים פיזיים, על גבי תשתית מלאה מקצה לקצה. אבל ככל שהחזון הזה הופך למציאות בשטח, הוא מביא איתו גם סיכונים חדשים – משיבוש מודלים והרעלת דאטה, ועד חשיפת מידע רגיש כתוצאה מהתנהגות לא צפויה של מודלים.
כדי להתמודד עם הסיכונים האלה, CrowdStrike שילבה את פלטפורמת האבטחה Falcon שלה בתוך הארכיטקטורה המאושרת של אנבידיה. השילוב כולל יכולות הגנה שמופעלות בקצב של מכונה – בהתבסס על טריליוני אירועי סייבר שמעובדים מדי יום ולולאת משוב שפועלת עם חוקרי מודיעין אנושיים. לצד איתור Shadow AI וסריקות עומק למודלים, Falcon מציעה גם שירותים כמו Red Team ו־OverWatch – שמיועדים לארגונים שרוצים שהמודלים שלהם לא רק ירוצו – אלא גם ישרדו.
כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime
בשלב הזה, לא ברור עד כמה האינטגרציה הזו תהיה חלק אינטגרלי מהפריסה – או תדרוש חוזים והגדרות נפרדות. לא ברור גם אם מדובר בכלי אבטחה שמגן על המודל עצמו או בעיקר על מעטפת הענן והתשתית שמסביבו. מה שכן ברור הוא שהקרב על אבטחת ה-AI עובר שלב. לא מדובר רק בלהגן על דאטה, אלא להבין שגם מודלים יכולים להיפרץ, להישתל, או לגרום לחשיפת מידע בלי שאף אחד יבחין.
ככל שהמודלים הופכים לעובדים של ממש עם הרשאות, גישה למידע ואפילו זכות לקבל החלטות, ייתכן שגם האבטחה סביבם צריכה לחשוב כמו ניהול זהות. ובדיוק כמו שלא הייתם משיקים מערכת פרודקשן בלי ניהול הרשאות, גם המודלים לא יכולים לרוץ חופשי יותר מדי זמן.