ה-AI אוטונומי, אבל האחריות אנושית

סוכני בינה מלאכותית נכנסים למצבת העובדים בארגון, מה צריך לעשות כדי להבטיח שהשינוי יתרום ולא יפגע?

איתי מרגלית
7.8.25

עיבוד תמונה: dreamstime

כל חברה רוצה להיות חברת AI ובכל זאת רק 1% מהן רואות את עצמן כבשלות לחלוטין לאימוץ טכנולוגיות AI, כך על פי McKinsey. בינתיים עוד ועוד ארגונים מתחילים לאמץ פתרונות שמבוססים על אינטראקציה חכמה, קבלת החלטות עצמאית ויכולת פעולה מורכבת בזמן אמת. במילים אחרות – המעבר מצ'אט-בוטים לקו-פיילוטים ולסוכני AI אוטונומיים או "מערכות אייג'נטיות" מתקדם, ומדובר בדור חדש של מערכות הפועלות שמשנות את הדרך שבה ארגונים פועלים, חושבים ומקבלים החלטות.

סוכני AI אוטונומיים מנהלים אינטראקציות מורכבות ומעודנות כך שהם חורגים מעבר לתסריטים מוגדרים מראש. הם לא רק מייצרים תוכן, הם גם מקבלים החלטות ונוקטים פעולה עם פיקוח אנושי מוגבל או ללא פיקוח כלל. לפי תחזית של גרטנר, עד 2028, כ-33% מיישומי התוכנה הארגוניים יכללו AI אייג'נטי, מה שיאפשר לכ-15% מהחלטות העבודה היומיומיות להתבצע באופן אוטונומי.

כבר היום סוכני AI מייצרים שינוי משמעותי: בשירות לקוחות הם מציעים תמיכה 24/7 ומטפלים במגוון רחב של בעיות; בניהול מלאי הם מבצעים אוטומציה של משימות, מייעלים ספירות מלאי ומספקים תובנות בזמן אמת; בתחום הבריאות הם מפחיתים את העומס המנהלי, מאפשרים לאנשי מקצוע להתמקד במקרים מורכבים ולעקוב אחר התקדמות המטופלים; ובתחום משאבי אנוש הם מייעלים את התהליך על ידי סינון קורות חיים, תיאום ראיונות וביצוע הערכות ראשוניות.


כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime


לשינוי הזה יש השלכות משמעותיות עבור עסקים – סוכנים לוקחים משימות שחוזרות על עצמן ומאפשרים לעובדים להתמקד בעבודה בעלת ערך גבוה יותר, שדורשת יצירתיות, אסטרטגיה והשפעה משמעותית.

אמון הוא המפתח

יחד עם זאת, המעבר למערכות AI אייג'נטיות מביא איתו גם שיבושים וסיכונים, במיוחד בכל הנוגע לאמון ולדיוק הנתונים. כיוון שהאמון הוא המפתח להטמעת הסוכנים, חשוב להבטיח שמערכות ה-AI  משתמשות בנתונים מדויקים ורלוונטיים, שומרות על פרטיות ופועלות במסגרת גבולות אתיים ומשפטיים. בשביל זה יש ליישם ניהול נתונים קפדני ופיקוח הדוק.

אמון הוא גם שקיפות: סוכני ה-AI חייבים להיות ברורים בהסבר על הפעולות שלו, כך שהמשתמשים ידעו מתי הם מתקשרים עם AI וכיצד הוא פועל, וגם הארגון צריך אחריות מוגדרת וברורה חיונית כדי שכולם יידעו מי נושא באחריות על ביצועי הסוכן ועל התוצרים שלו.

בהיעדר פיקוח הולם, סוכני בינה מלאכותית אוטונומיים עלולים לקבל החלטות שסותרות ערכים או עקרונות אתיים אנושיים, מה שעלול להוביל לאובדן אמון, בעיות משפטיות ופגיעה במוניטין. כדי להימנע מסיכונים אלה, חיוני לאמץ גישה רב-שחקנית (Multistakeholder), הכוללת שיתוף פעולה בין ממשלות, מגזר פרטי, אקדמיה וחברה אזרחית.

נדמה שכיום השאלה היא לא אם לשלב סוכני AI במערכות עבודה, אלא כיצד ניתן למקסם את שיתוף הפעולה בין עובדים אנושיים לעובדים דיגיטליים כדי להשיג את היעדים הרצויים. אך חשוב לזכור שלמרות שסוכני AI הם פריצת הדרך הטכנולוגית האחרונה, העקרונות הבסיסיים של מדיניות ציבורית תקינה ואחראית בתחום הבינה המלאכותית נותרו בעינם: גישה מבוססת סיכון, הגדרה ברורה של תפקידי השחקנים השונים באקוסיסטם ותמיכה בסטנדרטים מחמירים של פרטיות, שקיפות ובטיחות.

סוכני AI הם לא רק כלי, הם משתתפים חדשים בזירה הארגונית. כדי להבטיח שהשינוי הזה יתרום ולא יפגע, ארגונים חייבים להחזיק לא רק בידע טכנולוגי, אלא גם באחריות מוסרית ובחשיבה מערכתית.

איתי מרגלית הוא סגן נשיא אזורי ומנהל הפעילות העסקית בסיילספורס ישראל 

משרות פתוחות

קטגוריות

זה המקום להכיר את החברות, המשרדים וכל מי שעושה את ההייטק בישראל (ויש גם מלא משרות פתוחות!) #תוכן מקודם