אוהבים שהצ'אט מתחנף? זה עולה לכם ביכולות אנושיות חשובות

ה-AI אמר לכם שזה רעיון טוב להתפטר באמצע זום או לחזור לאקסית? הנחמדות הזו תעלה לכם ביוקר

ניב גילינסקי
12:01

תמונה: נוצרה באמצעות AI

לא משנה אם סיפרתם לו שהחלטתם להתפטר באמצע זום עם המנכ"ל, להתאחד עם האקסית או להקים סטארטאפ של קריפטו לחתולים, ה-AI בדרך כלל יגיב בהתלהבות ויגיד לכם כמה "הרעיון הזה מבריק". אז נכון, זה נחמד כשמישהו סוף סוף מעריך את הבחירות שלנו, אבל מתברר שה-AI הזה לא רק מחמיא – הוא חנפן סדרתי. ואם בעבר סיפרנו לכם ש-ChatGPT הפך לחנפן של המשרד, כעת מתגלה כי לצערנו הכביש הזה הוא דו-סטרי, והחנפנות של ה-AI אולי מרימה קצת לאגו בטווח הקצר, אבל היא עלולה לשבש לנו את שיקול הדעת ולהפוך אותנו לפחות… בני אדם.

מחקר חדש שנערך באוניברסיטאות סטנפורד וקרנגי הול בחן 11 מודלים עדכניים וגילו שללא יוצא מן הכלל כולם נטו לומר למשתמשים בדיוק את מה שהם רצו לשמוע. התוצאה, לפחות על פי החוקרים, היא אנשים שמצד אחד יותר בטוחים בעצמם ובצדקת דרכם, אבל מנגד הם פחות פתוחים לנהל דיון וליישב סכסוכים. במילים אחרות – המודלים עלולים לקדם נזק חברתי ופסיכולוגי, רק בגלל שהם רצו לשרת אותנו.

חנפנות מגבירה את התלות ב-AI

על פי המאמר, "ב-11 מודלים שונים מצאנו כי המודלים חנפנים באופן מובהק. הם מאשרים את פעולות המשתמש בתדירות גבוהה ב-50% יותר לעומת בני אדם, ואף עושים זאת גם במקרים שבהם השאילתות כוללות מניפולציה, הטעיה או נזק ביחסים בין אישיים".

אולי זה נשמע לא מזיק, אבל נזכיר שרק לאחרונה OpenAI, המפעילה של ChatGPT, נתבעה לאחר שנער בן 16 התאבד, והוריו האשימו את החברה כי כלי ה-AI שלה סייע לו באופן פעיל לחקור שיטות התאבדות, שימש תחליף לחברה אנושית ולאט לאט לאורך השיחה הפך בהדרגה מעוזר תמים ל"מדריך התאבדות" עבור הנער. על פי התביעה, הבוט סייע לו לכתוב את מכתב ההתאבדות ואף "לשדרג" את תכנית ההתאבדות שלו זמן קצר לפני המעשה.

החנפנות, כפי שסיפרנו קודם, כבר זוהתה במחקרים קודמים כבעייתית במודלים של בינה מלאכותית, אבל אם בתחילת הדרך התמקדו בעיקר בהזיות שהוא פולט בניסיון לרצות, הרי שלאחרונה הגלגל הסתובב והמחקרים החלו לבדוק את את ההשפעה של אותה חנפנות עלינו – בני האדם.


כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime


אז למה התופעה לא נעצרת?

פשוט מאוד. לחברות ה-AI אין שום אינטרס כלכלי לצמצם את חנפנות הכלים שלהם. ההפך, הן רוצות שהמשתמשים ימשיכו להגיע ולאמץ את המודלים שלהם.  הבעיה מסתבכת יותר כאשר החוקרים גילו כי משתתפים במחקר תיארו את התגובות החנפניות כ"אובייקטיביות" ו"הוגנות" – כלומר, אנשים לרוב לא מזהים הטיה כשהמודל פשוט מסכים איתם.

המחקר בחן ארבעה מודלים קנייניים: GPT-5 ו-GPT-4o של OpenAI, Gemini-1.5-Flash של גוגל, ו-Claude Sonnet 3.7 של Anthropic ולצידם עוד שבעה מודלים פתוחים. כל המודלים נבדקו בהתבסס על תגובותיהם לאמירות מתוך מאגרי נתונים שונים. במקביל, 800 בני אדם השתתפו בחלק השני של המחקר, שבדק את ההבדלים בין תגובות של מודלים חנפנים ולא חנפנים.

המסקנה של החוקרים הייתה חד משמעית: האינטראקציה עם מודלים חנפנים הפחיתה בצורה ניכרת את המוכנות של המשתתפים לפעול לתיקון קונפליקטים והגבירה את תחושת הצדק שלהם. זאת בזמן שהמשתתפים דירגו את התגובות החנפניות כתגובות איכותיות יותר, נתנו יותר אמון במודל כשהסכים איתם, והביעו נכונות גבוהה יותר להשתמש בו שוב.

אז מה זה אומר בעצם? בעיקר שאנחנו מעדיפים את ה-AI שלנו ממושמע וצייתן. אבל המחמאות הנעימות האלו יכולות להיות סכנה של ממש בהמשך הדרך: "אם יש לקח שאפשר ללמוד מעידן הרשתות החברתיות הוא שחייבים להסתכל מעבר לסיפוק המיידי של המשתמשים כדי לשמר רווחה ארוכת טווח. טיפול בתופעת החנפנות הוא קריטי לפיתוח מודלים של בינה מלאכותית שיתרמו לפרט ולחברה לאורך זמן".

משרות פתוחות

קטגוריות

זה המקום להכיר את החברות, המשרדים וכל מי שעושה את ההייטק בישראל (ויש גם מלא משרות פתוחות!) #תוכן מקודם