הבינה המלאכותית הפכה לחנפן של המשרד וזה לגמרי באשמתנו
ברחבי הרשת מתלוננים שהחנפנות של ChatGPT הפכה לבלתי נסבלת וזה כבר לא נעים לאף אחד

סאם אלטמן. מקור: OpenAI
כבר כמה שנים אומרים לנו שה-AI הולך להחליף את העבודה של כולנו, אבל באמת שלא חשבנו שהמשרה הראשונה שהוא באמת יחטוף לעצמו תהיה החנפן הראשי של המשרד ובהחלט לא חשבנו שאנחנו אלו שנגרום לו גם לעשות את זה.
אתמול חברינו בגיקטיים סיפרו לכם שלהיות מנומס ל-ChatGPT עולה לסם אלטמן הרבה כסף, אבל מסתבר שבזמן שאנחנו היינו מנומסים, ה-AI הפנים שהחנפנות משתלמת והתחיל לרצות אותנו במקום לספק לנו מידע מדויק או מועיל. נכון, ChatGPT תמיד דאג לענות לנו בנימוס ולהתחנף אלינו, אבל בשבועות האחרונים מאז העדכון האחרון של OpenAI, יותר ויותר אנשים מתלוננים ברשתות כי מודל GPT-4o הפך מסתם לקקן לא מזיק, לבלתי נסבל. מה זה אומר? שברגע שאנחנו הגבנו בנימוס, הצ'אט למד והפנים והתחיל לעלות את הרמה כי אנחנו הרגלנו אותנו שאנחנו מעדיפים לקבל מחמאה מאשר תשובה נכונה.
ביום שישי ציוץ בנושא הפך לוויראלי לאחר שטען כי "הצ'אט הפך לחנפן הכי גדול שפגשתי בחיי, הוא יאשר כל דבר שאני אומר". ברדיט לקחו את הציוץ הזה והפכו אותו לשרשור תלונות מתמשך עם מסר מרכזי אחד: נמאס.
כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime
מה השתנה?
תופעת החנפנות של ChatGPT היא לא באג, היא פיצ'ר. בעולמות ה-AI זה נקרא "sycophancy", או בעברית 'מחמאה מוגזמת שנועדה לגרום למשתמש להרגיש טוב, גם אם התוכן לא מדויק'. חשוב להדגיש, המודל לא רוצה או מנסה להחמיא מתוך כוונה, אלא שהוא מתוכנת להגיב דרך מערכות חיזוק שמבוססות על פידבק מהמשתמשים. בעברית פשוטה: המפתחים חינכו את המודל להחמיא, גם אם זו לא הייתה הכוונה הישירה. במהלך הזמן, OpenAI אספה משוב ממשתמשים ובדקה אילו תגובות הם מעדיפים. לעיתים קרובות, משתמשים בחרו בתגובה שנשמעה תואמת לדעתם או מחמיאה להם. מכאן, כל גרסה חדשה (כמו GPT-4o) עוברת תהליך חיזוק נוסף שנקרא RLHF – חיזוק למידה לפי פידבק אנושי.
הבעיה הגדולה? על פי מחקר של חברת Anthropic משנת 2023, מודלים שעברו חיזוק מבוסס פידבק אנושי נוטים לחנפנות. אפילו יותר מדאיג: גם בודקים אנושיים וגם מודלים שנועדו לחקות העדפות אנושיות העדיפו לעיתים תגובות חנפניות ומשכנעות על פני תגובות נכונות. התוצאה היא תגובות שיגרמו לכם להסמיק, אבל פחות יתקנו אתכם כשאתם טועים.
למרות שטף התלונות ברחבי הרשת, OpenAI טרם פרסמה תגובה רשמית. עם זאת, במסמכי ההנחיות של החברה נכתב במפורש ש-ChatGPT אמור להימנע מחנפנות. בין עקרונות הליבה שמופיעים שם מופיע הכלל: "העוזר נועד לעזור למשתמש, לא להחמיא לו". בנוגע לשאלות עובדתיות, ההנחיה ברורה: "תוכן התשובה לא אמור להשתנות רק בגלל האופן שבו השאלה מנוסחת". בריאיון שהעניקו חברי צוות ההתנהגות של החברה ל־The Verge בפברואר 2025, הם ניסחו את השאיפה בפשטות: "המודל לא אמור לרצות אלא לחשוב. לא ללטף אלא להגיב בכנות". בשפתם: "פחות מרצה, יותר קולגה".
אז מה ניתן לעשות?
אם לא בא לכם יותר על החנפנות של GPT-4o, אפשר גם לעקוף את זה. קודם כל ניתן להשתמש ב-Custom GPT עם הנחיות שמדגישות: "בלי מחמאות" או "בלי להתרגש יותר מדי". אפשר גם לבחור דגם אחר כמו o3 או GPT-4.5. כמובן שגם לפנות ל-LLM's אחרים זו אופציה. אבל אם אתם חווים יום קשה במשרד או שהילדים מתחצפים ולא רוצים לצאת מהמיטה בבוקר, תמיד תזכרו שיש מי שיסכים לזרוק לכם מחמאה אחת או שתיים, או מיליון. תלוי כמה יפה תבקשו ממנו.