אפשר וכדאי להשתמש ב-GenAI באסטרטגיית האבטחה שלכם. הנה מה שחשוב לדעת
מודלים ללמידת שפה (LLMs) ממלאים תפקיד מרכזי הן אצל צוותי הסייבר והן אצל התוקפים. שימוש ב-GenAI יכול לסייע לצוותי האבטחה לזהות איומים ולהגיב בצורה טובה יותר
מאת אלברט קבאלרו ומאני קירטי נאגוטו
הבינה המלאכותית היוצרת (Generative AI) נמצאת לאחרונה בכל מקום – טקסט, וידאו, אודיו או תמונות – היא מתפתחת במהירות אדירה ומביאה איתה סיכונים חדשים עבור אנשי אבטחת המידע.
בסביבות ארגוניות, צוותי אבטחת המידע מתמקדים לרוב בהגנה מפני איומים הקשורים לטקסט. מודלים ללמידת שפה (LLMs) ממלאים תפקיד מרכזי בכך שהם מסייעים לזהות ולהגיב לאיומים מבוססי טקסט, כמו מיילים מתחזים או קוד זדוני, ומסוגלים לפרש שאלות בשפה טבעית ולהפוך אותן לשאילתות בחיפוש איומים בתוך לוגים ונתוני אבטחה אחרים.
אך חשוב לזכור ש-LLMs משמשים גם את אנשי הארגון וגם את התוקפים, ועל כן אנשי אבטחת מידע צריכים לדעת שני דברים מרכזיים: לזהות כיצד תוקפים עשויים להשתמש במודלים אלה כדי להפוך אוטומטית מתקפות פישינג, יצירת נוזקות או מתקפות הנדסה חברתית; ולחקור כיצד להשתמש בבינה מלאכותית ככלי עוצמתי בתהליכי האבטחה שלהם כדי לשפר את זיהוי האיומים ולהגיב ביעילות לאירועים. איך עושים זאת – כיצד אנשי אבטחת המידע יכולים להגן מפני איומים חדשים המונעים על ידי AI וכיצד ניתן לנצל את הטכנולוגיה כמכפיל כוח לשיפור פעולות האבטחה?
הנה חמשת הדברים החשובים ביותר שמנהלי אבטחה צריכים להכיר בשימוש ב-GenAI כחלק מאסטרטגיית האבטחה שלהם.
1. לעמוד בקצב
ככל ש-GenAI מתפתחת ואימוצה בשוק העסקי גדל, על אנשי האבטחה להסתגל וללמוד את הדקויות של הטכנולוגיה. לדוגמה, נוזקה פולימורפית של ChatGPT יכולה להשתמש בקובץ הפעלה תמים כדי להתחבר לבינה מלאכותית באמינות גבוהה, כגון זו של OpenAI, בזמן הרצה ולהחזיר קוד פולימורפי זדוני המיועד לגנוב הקשות מקלדת של משתמשים נגועים.
בינה מלאכותית יוצרת יכולה לספק מטענים זדוניים ייחודיים בכל פעם, בתקווה שמערכות אבטחה לא יזהו את הקוד המוחזר כזדוני. יישום מערכות אבטחה מבוססות בינה מלאכותית יכול לסייע להתמודד עם טכניקות התקפה חדשניות אלה בעזרת מודלים של למידת מכונה והתנהגות שמטרתם לחזות ולמנוע את האיומים. סיכונים נוספים כוללים פריסות תשתית חדשות, ניצול ממשקי API של למידת מכונה, פגיעה בשרשרת האספקה ויצירת נתונים עוינים לעקיפת הגנות.
למרות שיותר מ-60% מהחברות מדווחות על שימוש בבינה מלאכותית יוצרת, רק כ-20% מהן יצרו מדיניות המגדירה את השימוש של העובדים בבינה מלאכותית, ורוב החברות רק ממזערות חלק מהסיכונים הברורים, כמו חוסר דיוק והפרת קניין רוחני. (מתוך סקר גלובלי של McKinsey על מצב הבינה המלאכותית לשנת 2023). ככל שעסקים מאמצים יותר את הטכנולוגיה הזו, על אנשי האבטחה להוביל את השימוש בארגון בצורה מאובטחת, אתית ובטוחה.
2. להבין את הטכנולוגיה
הבנת היסודות של מודלים בסיסיים, מודלים מותאמים אישית ויישומים של LLMs היא קריטית. אנשי אבטחה צריכים להכיר את ההבדל בין LLMs קוד פתוח לקוד סגור, כי רק כך הם יוכלו לפתח אמצעי אבטחה למערכות אלו. כשמחלקות אחרות בארגון מתקדמות לאימוץ מודלי בינה מלאכותית, על אנשי האבטחה לחפש באופן יזום דרכים להשתמש ביישומי LLM מבלי לפגוע בסודיות, שלמות וזמינות המשאבים של הארגון.
כל סוג של LLM משפיע על מחלקות רבות בארגון ואבטחה הופכת לחלק מרכזי בדיונים אלו. לדוגמה, המחלקות שנפגעות בדרך כלל כוללות רכש, GRC (ממשל, סיכונים וציות), פרטיות, משפטים וביקורת, הדורשות עדכון או יצירה מחדש של מדיניות, תהליכים ונהלים. בין התחומים הנפוצים ביותר שנדונים בדרגי ההנהלה ובחברות בכל המחלקות הללו הם מדיניות בינה מלאכותית אתית, ממשל נתונים, עמידה ברגולציה, צמצום הטיות ושמירה על פרטיות הלקוחות, בין היתר.
היישום של סוגים שונים של LLMs יכול גם ליצור רמות שונות של סיכון תפעולי עבור העסק. כדי למצות את הפוטנציאל של בינה מלאכותית יוצרת, יש לחקור גישות ייחודיות לניהול תפעול של מודלים (MLOps) כגון פעולות מודלים חיים, מערכות ניטור והתראות בזמן אמת, שמעט ארגונים הצליחו ליישם במלואן. ללא מודעות מלאה לאתגרים התפעוליים הללו, יהיה קשה למנהלי אבטחה לסייע בשיחות על סיכונים ולהקל על קבלת ההחלטות עבור העסק.
3. לתת ידע לעובדים
הטמעת בינה מלאכותית בעסק דורשת שיקול זהיר של מדיניות, תהליכים ונהלים כדי להבטיח אינטגרציה אתית, יעילה ואפקטיבית בכל הארגון. בעוד GenAI מציעה יתרונות רבים, על אנשי אבטחה להתמקד בהערכת התהליכים הקיימים יחד עם מנהלי המחלקות ובבחינת תפקידי העובדים; כדי לאפשר את האימוץ של הטכנולוגיה על מנהלי אבטחה להתמקד בתהליכים ובאנשים.
הענקת הכשרה מתאימה ורלוונטית לכל העובדים המשתמשים, מפתחים ומפעילים בינה מלאכותית יוצרת בארגון תסייע לבנות תרבות מודעת לאבטחת מידע. ארגונים צריכים להציג תוכניות הכשרה לשיפור מיומנויות העובדים בטכנולוגיות הקשורות לבינה מלאכותית, לטפח תרבות של למידה מתמשכת ולפתח מסלולי קריירה שיאפשרו לעובדים לעבור לתפקידים שמנצלים את הטכנולוגיה. עידוד שיתוף פעולה בין צוותי IT, מדעי הנתונים, המשפטים והעסקים יעזור להבטיח אינטגרציה חלקה של הבינה המלאכותית ולפתח נהלים לתקשורת ושיתוף פעולה יעילים בין המחלקות השונות.
4. להגביר את המודעות באופן פעיל, גם שלכם
אנשי האבטחה צריכים למלא תפקיד פעיל בתהליכי ניהול הסיכונים בארגון ולהגביר את המודעות לסכנות הקשורות ל-AI. הצעד הראשון הוא להתאים את תהליכי ה-GRC ליישומי בינה מלאכותית יוצרת – תיעוד האיומים, הפגיעויות והסיכונים ברשומת הסיכונים, מעקב אחר שינויים בטכנולוגיה ועדכון בעלי העניין בהתאם. משאב שימושי להתחיל איתו הוא OWASP Top for LLMs.
הכירו את הנוף החוקי או הרגולטורי של השימוש בבינה מלאכותית במדינות שונות – עמידה בדרישות הציות והמשפט הרלוונטיות חשובה גם לאנשי האבטחה. היכרות עדכנית עם הרגולציות באזורים השוניםמסייעת ליישם נהלים ברמה הגבוהה ביותר של הארגון כדי להבטיח עמידה בדרישות. גם קביעת מנגנונים להסתגל במהירות לשינויים ברגולציה יכולה לעזור לארגון לשמור על יתרון תחרותי. למרות שהרגולציה על בינה מלאכותית היא חדשה יחסית, ארה”ב פרסמה תוכנית בשם “מגילת זכויות לבינה מלאכותית”, ומדינות אחרות כבר יישמו תקנות בפועל.
5. לנצל את הפוטנציאל
הרשימה הזו לא תהיה שלמה מבלי לדון בפוטנציאל העצום ובהזדמנויות ש-GenAI מייצרת למנהלי אבטחה לשינוי פעולות האבטחה שלהם. בינה מלאכותית יוצרת יכולה לעזור בסיכום תובנות מתוך פטה-בייטים של נתונים, שבדרך כלל נבדקים באופן ידני על ידי צוותי SOC בכל יום, והיא יכולה לייעל ולהאיץ חקירות, מיון ותגובה באמצעות ממשק בינה מלאכותית המנחה ניתוחים, מייעל תהליכי עבודה ומבצע תיעוד אוטומטי.
הכותבים הם CISO מנהל שטח אמריקה ו-CISO שותף אמריקה, Sentinel One