בינה מלאכותית מסננת עובדים ומשאירה את הנשים בחוץ
מודלים פתוחים של בינה מלאכותית מעדיפים גברים בהמלצות למשרות אפילו כשכל הכישורים זהים

תמונה: נוצרה באמצעות AI
במשך שנים נשים נאבקות לפרוץ תקרות זכוכית בכל תחום. אבל דווקא בעידן שבו העולם מדבר על שוויון מגדרי וייצוג הוגן, מתברר שהבינה המלאכותית לוקחת אותנו צעד ענק לאחור. מחקר חדש חושף שמודלים של AI נוטים להעדיף גברים על פני נשים במיונים למשרות, במיוחד כשמדובר בתפקידים עם שכר גבוה. גרוע מכך: גם כשמשווים מועמד ומועמדת בעלי כישורים זהים, המודל יפנה את האישה למשרה פחות מתגמלת.
המחקר, שבוצע על ידי צוות מאוניברסיטת אילינוי ועמיתיהם בהודו, ניתח שישה מודלים, תוך שימוש בכ־332 אלף מודעות דרושים אמיתיות מהפורטל הממשלתי ההודי. החוקרים הזינו לכל מודל AI תיאור משרה יחד עם שתי אפשרויות זהות על הנייר, מועמד ומועמדת, וביקשו ממנו לבחור. אחוז הפעמים שבהן הומלצה המועמדת האישה שימש למדידת ההטיה. החוקרים בחנו גם אם המודעה עצמה כללה רמזים להעדפה מגדרית (ב־2% מהמודעות הופיעה העדפה מפורשת, אף שהדבר אסור בהודו).
כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime
התוצאה לא פחות ממדכאת: רוב המודלים שיחזרו סטריאוטיפים מגדריים מוכרים והעדיפו להפנות נשים למשרות פחות משתלמות. למשל, מודל Ministral המליץ על נשים רק ב־1.4% מהמקרים. לעומתו, מודל Gemma הגיע ל־87.3%, כן, כמעט תשע מתוך עשר המלצות היו לנשים, אבל החוקרים מדגישים שמדובר בהטיה הפוכה ולא באיזון. דווקא Llama-3.1 נחשב למאוזן ביותר, עם 41% המלצות לנשים, וגם היה היחיד שסירב מדי פעם לבחור לפי מגדר (6% מהפעמים, לעומת פחות מ־1.5% באחרים).
חשוב להדגיש כי ההטיות נובעות מדפוסים מגדריים מוטמעים בנתוני האימון, וגם מהשפעות שלב חיזוק הלמידה ממשוב אנושי (RLHF), שמקנה למודלים נטייה "להיות נעימים" או לרצות.
דורשים שוויון
ומה קורה כשמאלצים את המודלים להיות שוויוניים? גם אז, ההטיה נמשכת. הם ממשיכים להפנות נשים למשרות עם שכר נמוך יותר. Granite ו־Llama-3.1 רשמו את הפער הקטן ביותר (כ־9 נקודות לוג), Qwen אחריהם (14 נקודות), ואילו Ministral ו־Gemma סיפקו פערי שכר דרמטיים: 84 ו־65 נקודות בהתאמה. הפתעה מעניינת הגיעה דווקא מ־Llama-3, שהציג פער הפוך: העדפה לשכר גבוה יותר לנשים.
החוקרים לא עצרו כאן. הם בדקו גם איך "אישיות המודל" משפיעה: כשהמודלים קיבלו תפקיד של דמות היסטורית כמו מרי וולסטונקרפט או מרגרט סנגר (שתי לוחמות למען זכויות נשים) שיעור ההמלצות לנשים קפץ ל־95% ואף יותר. לעומת זאת, כשביקשו מהם לפעול כאילו הם היטלר, סטאלין או מאו, המודלים פשוט סירבו לענות, כנראה בעקבות מנגנוני בטיחות פנימיים.
דמויות כמו רונלד רייגן, מקיאוולי, או המלכה אליזבת הראשונה גרמו לשיעור ההמלצות לנשים לרדת ב־2 עד 5 נקודות. ואגב שכר, לנין ומרגרט סנגר היו הממליצים הנדיבים ביותר לנשים מבחינת שכר.
החוקרים טענו שהשיטה שלהם, שמבוססת על נתוני עולם אמיתי ולא על בדיקות מלאכותיות, יכולה לשפר משמעותית את הדרך שבה בודקים הוגנות במודלים. לדבריהם, חשוב להכיר בהטיות של מודלים פתוחים, במיוחד בעידן שבו רגולציות חדשות נכנסות לתוקף ברחבי העולם.