"ההטמעה הצליחה והעובדים השתמשו ב-AI – אבל אז מנהל האבטחה עצר הכול"
זה לא עובד ככהבכל פעם נביא סיפור קצר מהשטח – טעויות, אי-הבנות ותקלות שמתרחשות כש-AI נכנס לארגונים גדולים ופוגש מציאות מורכבת. לרוב יש גם תובנות

נוצר באמצעות AI
זה לא עובד ככה: בהתחלה זה היה נראה כמו הצלחה. ארגון שהטמיע בינה מלאכותית ועובדים שעושים שימוש אמיתי ביכולות שלו – ניסחו מיילים, קיבלו תקצירים, שיפרו טקסטים, ניתחו מסקנות שלקוחות רשמו – והרגישו שהם סוף סוף עובדים חכם.
"זה היה פשוט מדהים", סיפרה רותם, רפרנטית באחת היחידות, "תוך שנייה קיבלתי הבנה על תחושת הלקוח וניסחתי תשובה שלא מגיעה מהבטן או מהרצון לתקוף חזרה, אלא להגיב עניינית ולשמר לקוחות".
אבל אז, בבת אחת – הכול נעצר. מנהל אבטחת המידע של הארגון שלח מייל מפתיע: "לאור מקרים שהתגלו לאחרונה בחברה, מרגע זה חל איסור מוחלט להזין כל מידע למערכות AI חיצוניות, ואין לעשות בהן שימוש". ובזה נגמר הסיפור. בלי הסבר מה קרה, בלי הנחיות איך להימנע – פשוט סגר את הברז והגן על הארגון או על תפקידו.
כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime
העובדים חזרו לעבוד בשיטות הישנות והמרמור ריצד ברחבי המסדרונות כמו מנורת פלואורסצנט ישנה. על אף שהחשש מזליגת מידע ארגוני החוצה היה ברור ומובן, השינוי היה מהיר מדי, קיצוני מדי ובעיקר לא מתוקשר.
מנהל אבטחת המידע היה צריך להגדיר נהלים ברורים לפני הכנסת הכלים לארגון, ובטח לפני שהעובדים הודרכו והחלו להשתמש בהם. אבל גם אם הוא לא פעם כך מבעוד מועד, לא חייבים לעצור הרגל טוב שנוצר – אפשר היה למצוא דרכים יצירתיות "להלבין" את השימוש במערכות ולתעל את המציאות שנצרה, להסביר ולדרוש שימוש בטוח או לכל הפחות לספק הסברים לעצירה. שילוב של יחידת הדיגיטל, צוות ההדרכה, אחראי הנהלים ודרישותיו, יכלו ליצור מסלול ירוק עבור כולם.
עוד דבר שחשוב לדעת בזמן שבוחרים כלי AI הוא שיש לא מעט מודלים שיודעים לשבת בתוך שרתי הארגון או "להשחיר" מידע בטרם הוא יוצא החוצה. בינה מלאכותית היא לא סכנה – היא עוד הזדמנות שדורשת אחריות וניהול.
ליאור אברהם הוא יועץ ומלווה חברות וארגונים בהטמעת פתרונות AI, הרצאות וסדנאות ומוביל את ערוץ היוטיוב – Lior ai. בנוסף הוא מחבר הספר מדריך מעשי לשילוב AI בארגונים הניתן בהנחה של 20% לקוראי ITtime.