"החלטנו שהמערכת תסנן מועמדים – ואז הגיעו רק מועמדים זהים"

זה לא עובד ככהבכל פעם נביא סיפור קצר מהשטח – טעויות, אי-הבנות ותקלות שמתרחשות כש-AI נכנס לארגונים גדולים ופוגש מציאות מורכבת. לרוב יש גם תובנות

ליאור אברהם
7.7.25

נוצר באמצעות AI

זה לא עובד ככה: "לא ברור מה קרה", סיפרה לי רוית, מנהלת גיוס ותיקה בארגון טכנולוגי מצליח, "עשינו הכול לפי הספר: הכנסנו מערכת בינה מלאכותית לסינון קורות חיים, הגדרנו פרמטרים ברורים, חיברנו למערכת ה-HR – ודווקא אז, משהו התפקשש. כל המועמדים שעלו מהמערכת נראו כמעט זהים".

בהתחלה כולם התלהבו: פחות זמן סינון, פחות קורות חיים מיותרים, יותר התמקדות באיכות. אבל אז הגיעו השאלות: איפה הנשים? איפה המועמדים מהמגזר החרדי, הערבי, הפריפריה? למה פתאום אין אף מועמד עם רקע קצת שונה או גישה מקורית?

כשהסתכלנו לעומק – ראינו מה קרה: המערכת למדה מסינונים קודמים, אבל אלה שיקפו הטיה קיימת. מילים שחזרו שוב ושוב בקורות החיים של מועמדים שנקלטו בעבר הפכו לזהב עבור המודל, וכל מילה שלא הופיעה במסה הקריטית של העבר קיבלה דירוג נמוך.

וכך, בלי ששמנו לב, בנינו מערכת שמנציחה את ההטיה – במקום לתקן אותה.


כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime


מה היה חסר?

המערכת לא קיבלה קלט מגוון, לא הייתה מטרה מוצהרת ליצירת גיוון, לא היו נקודות בקרה אנושיות ומנהלת הגיוס כלל לא הייתה שותפה לתהליך ההגדרה.

"תחשבי שאדם חדש היה מצטרף לצוות שלך ואומר: ‘אני אבחר לבד את המועמדים, לפי מה שהיה פה עד עכשיו’", אמרתי לרוית, "היית נותנת לו לעבוד לבד, בלי ללוות אותו?".

היא מיד ענתה: "ברור שלא. זה מסוכן מדי".

"זה בדיוק ככה עם בינה מלאכותית", אמרתי, "היא צריכה חפיפה, להבין מהם הערכים שלך, לקבל דוגמאות למה מישהו הוא מועמד טוב וגם שונה".

רוית והצוות שלה הגדירו יחד מחדש את הקריטריונים, הכניסו דוגמאות מגוונות ושלב של ביקורת אנושית לתוך התהליך.
המערכת לא הוצאה מהשימוש – אלא עברה חינוך מחדש. ומאז? פתאום צצו מועמדים חדשים. מפתיעים. טובים. מגוונים.

יום אחד רוית שלחה לי מייל עם הנושא: "הפעם – גייסנו אחרת". ידעתי שהבינה המלאכותית שלה סוף סוף הבינה את האנשים שהארגון שלה מחפש. השבוע פגשתי את מגויסת ה-AI הראשונה החדשה בחברה, ועבורי זה היה מרגש כי היא לא באמת ידעה כמה "חינוך מחדש" נדרש כדי לגייס אותה.

בינה מלאכותית יכולה וצריכה לעזור גם לצוותי הגיוס. מה אפשר לעשות כדי להימנע מטעויות?
– להכניס דוגמאות מגוונות למודל ולשקול גם את מה שלא היה בעבר.
– להגדיר גיוון כערך, לא רק כאילוץ.
– לשלב את מנהלי הגיוס בהגדרת הקריטריונים.
– לעקוב אחרי הפלטים ולבצע תיקון יזום כשמתגלה דפוס חוזר מדי.

בינה מלאכותית פשוט משכפלת את מה שהיא למדה, ואתם אלה שצריכים ללמד אותה להיות הוגנה וטובה יותר.


ליאור אברהם הוא יועץ ומלווה חברות וארגונים בהטמעת פתרונות AI, הרצאות וסדנאות ומוביל את ערוץ היוטיוב – Lior ai. בנוסף הוא מחבר הספר מדריך מעשי לשילוב AI בארגונים הניתן בהנחה של 20% לקוראי ITtime.

משרות פתוחות

קטגוריות

זה המקום להכיר את החברות, המשרדים וכל מי שעושה את ההייטק בישראל (ויש גם מלא משרות פתוחות!) #תוכן מקודם