67% מהמנהלים מודים: נשתמש ב-AI גם אם זה נוגד את חוקי החברה
הנהלה בכירה משתפת סודות עסקיים עם AI, מנהלים מתאהבים בו ועובדים מאיימים להתפטר אם יחסמו את הגישה - ארגונים מגלים שתופעת ה-Shadow AI היא כאב ראש שמגיע מכל הכיוונים

כולנו. תמונה: כמובן שנוצרה באמצעות AI
מי באמת אשם בפריצה לארגון בגלל shadow AI? מתברר שעובדים בכל הדרגים, כולל מנהלים בכירים, משתמשים בכלי בינה מלאכותית בארגונים, גם במחיר של חריגה ברורה ממדיניות החברה. התופעה כל כך רווחת עד ש-67% מחברי הנהלה בכירים שהשתתפו במחקר חדש מודים כי ישתמשו ב-AI גם אם לא אושרו על ידי צוותי ה-IT של החברה.
המחקר The Insider AI Threat Report של חברת הסייבר האמריקאית CalypsoAI בחן את אופן השימוש של כ-1,000 עובדים ומנהלים בכלי בינה מלאכותית והתמקד במקומות שבהם השימוש ב-AI חורג ממדיניות החברה או יוצר סיכון פנימי לחברה. התמונה שעלתה הראתה גבולות מטושטשים בין שימוש מותר לאסור בכל הקשור ל-AI.
מדובר בתופעה חוצת ארגון – עובדים לא מהססים להזין נתונים רגישים או קנייניים לכלים ציבוריים ולא אחת מנהלים בכירים מובילים בעצם את ההתנהגות המסוכנת. כך למשל, 52% מהעובדים מוכנים להשתמש בכלי AI, ובעיקר בכלי GenAI, כדי להקל על עצמם במהלך יום העבודה. 45% אף הודו כי הם סומכים יותר על AI מאשר על חבריהם למשרד.
כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime
בקרב המנהלים שהשתתפו במחקר, 35% הודו כי שיתפו עם הבינה המלאכותית מידע קנייני של החברה. נשמע כמו מהלך שנועד לייעל את העבודה עם כלי AI? זה גם מה שחשבו בסמסונג לפני שנתיים, ואז גילו כי לפחות בשלושה מקרים שונים עובדים שיתפו עם ChatGPT מידע סודי ורגיש שנשמר בשרתי OpenAI ויכול לשמש אותה לאימון המודלים.
ואם זה לא מספיק, מחצית מהמנהלים הודו שהם מעדיפים לעבוד עם "מנהל AI" מאשר עם מנהל אנושי, בעוד 38% מהמנהלים הסכימו להודות כי הם בכלל לא יודעים מה זה סוכן AI, מה שממחיש בעיקר את הפער הגדול שבין הקצב בו ארגונים מאמצים טכנולוגיות חדשות לבין ההבנה שלהם את אותן הטכנולוגיות ממש.
ה-Shadow AI הופך לבעיה חמורה
המונח “Shadow AI”, הוא למעשה הגלגול המודרני של תופעת ה-Shadow IT ומתאר את התופעה בה עובדים עושים שימוש בכלי AI לא מאושרים כדי להשלים משימות אמיתיות. המחקר האחרון מראה שהתופעה הפכה לכאב ראש עבור הארגונים: 37% מהעובדים לא מרגישים אשמה אם הם עוברים על מדיניות ה-AI של הארגון ו-21% נוספים טענו כי הם פשוט עושים מה שמתחשק להם עם יישומי AI, משום שהכללים שקבע הארגון שלהם לא ברורים להם. 25% אגב טענו כי הם ניגשים ל-AI עצמו מבלי בכלל להתעניין אם הכלי אושר על ידי צוותי ה-IT של החברה ו-34% אף ציינו כי אם הארגון שלהם היה אוסר עליהם להמשיך להשתמש ב-AI, הם פשוט היו מתפטרים. בנוסף, 28% מהעובדים הודו שהם השתמשו ב‑AI כדי לנתח נתונים רגישים, ו‑28% אחרים אמרו שהזינו מידע קנייני של החברה כדי ש‑AI יסייע בביצוע משימה.
המחקר מציף מציאות שאי אפשר כבר להתעלם ממנה: המשיכה ל-AI חזקה מכל מדיניות פנימית של ארגון כזה או אחר. עובדים ומנהלים כאחד רואים בכלי הבינה המלאכותית דרך לקצר תהליכים ולייעל משימות, גם אם זה כרוך בהפרת מדיניות או בחשיפת מידע סודי. התוצאה היא תרבות של Shadow AI – שימוש בכלים לא מאושרים, ללא פיקוח וללא הבנה מספקת של הסיכונים. זו לא רק שאלה של אבטחת מידע, אלא אתגר מנהיגותי ומבני: איך לאפשר לעובדים ליהנות מהיתרונות של AI בלי לאבד שליטה על מה שיוצא החוצה.