מפתחים מהר, חושבים אחר כך: ארגונים חייבים לקחת ברצינות בינה מלאכותית אחראית

המרוץ להטמעת GenAI מלהיב, אבל הסיכונים אמיתיים - רגולציה מחמירה, לקוחות עם מודעות ואתגרים תפעוליים מחייבים את הארגונים לאמץ עכשיו פרקטיקה של Responsible AI

ד"ר שאול לוי
29.5.25

תמונה: dreamstime

ההתקדמות הטכנולוגית האדירה של השנים האחרונות מחייבת ארגונים להמציא ולעצב מחדש את תהליכי העבודה העסקיים והתפעוליים שלהם. אך רוב הארגונים ממוקדים בהטמעה מהירה של פתרונות AI, ובעיקר GenAI, ולעיתים שוכחים לשאול את השאלה הקריטית: האם השימוש בטכנולוגיה הזו נעשה בצורה אחראית?

שימוש לא אחראי בטכנולוגיות בינה מלאכותית – ובמיוחד בטכנולוגיה גנרטיבית – מעלה המון סיכונים: מעבר לתופעת ההזיות הידועה, כבר קרו מספיק מקרים של הטיה באלגוריתמים, חשיפה של מידע חסוי, חוסר שקיפות בתהליך העבודה של הפתרון, פעולה לא קונסיסטנטית של המודל, מתקפות סייבר, הפרת קניין רוחני, השפעות על כוח העבודה ויש עוד.

הבעיות האלה אינן תאורטיות. ארגונים שכבר משלבים GenAI בפעילותם היומיומית נתקלים בדילמות כמו האם מותר להזין מידע רגיש למודלים, איך יודעים מה המודל למד ומאיפה, מה עושים כשהוא ממציא מידע, איך מוודאים שהוא לא פוגע בקניין רוחני או באנשים?

אין ספק שאמון בפתרונות מבוססי GenAI הוא פרמטר קריטי של הטמעה מוצלחת של פתרונות AI, והדרך לשם היא באמצעות יצירה של פרקטיקת בינה מלאכותית אחראית – RAI – Responsible AI

אין ספק שאמון בפתרונות מבוססי GenAI הוא פרמטר קריטי של הטמעה מוצלחת של פתרונות AI, והדרך לשם היא באמצעות יצירה של פרקטיקת בינה מלאכותית אחראית – RAI – Responsible AI. כלומר, נקיטת פעולות מכוונות לתכנון, יישום ופריסה של פתרונות, ומתן הגנה מפני הסיכונים הפוטנציאליים של בינה מלאכותית.

כיום הצורך בבינה מלאכותית אחראית מגיע משלושה גורמים עיקריים:

דרישות רגולטורים: מוסדות ורגולטורים גלובליים שמפתחים תקנות מחייבות
דרישת לקוחות: דרישה גוברת לפיתוח פתרונות AI הוגנים, לצד מגמה הולכת ומתעצמת להימנע משימוש בשירותים ומוצרים של עסקים שאינם עומדים בסטנדרטים אתיים גבוהים
הארגון עצמו: ארגונים מבינים שניהול AI הוא הכרחי לקבלת ביטחון באיכות ובאמינות הפתרונות שהוא מפתח וביכולת לפתח פתרונות נוספים בסקייל גבוה.

מבינים את החשיבות, אבל לא נוקטים פעולות

מחקרים מראים כי רוב המנהלים (כ-75%) מאמינים שהיתרונות האמיתיים של בינה מלאכותית יתאפשרו רק כאשר היא נבנית על בסיס של אמון, וחשוב מכך – רובם המכריע (כ-80%) מסכים שאסטרטגיית אמון חייבת להתפתח במקביל לפיתוח התשתית הטכנולוגית ופיתוח היישומים הראשונים, ולא אחריה. הרוב המכריע של שכבת המנהלים (96%) מבין שיישום עקרונות של בינה מלאכותית אחראית היא אבן יסוד בפיתוח פתרונות GenAI והוא צריך להיות בראש סדר העדיפויות, אך רובם (70%) אינם פועלים להקמת פרקטיקות RAI מתוך הנחה מוטעית כי זו האחריות של ה-CRO בלבד.


כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime


גם סדר העדיפויות שארגונים מציבים לעצמם בנושא הזה משפיע מהותית על הטמעת הכלים בארגון. על פי מחקר של חברת Accenture, קיים פער משמעותי בין הכוונה לפעולה עצמה – רק 2% מהחברות החלו להטמיע בצורה מערכתית בינה מלאכותית אחראית, והשאר? 30% מהחברות ציינו כי הן מתכננות להשקיע בבינה מלאכותית אחראית והרוב המוחלט (כ-70%) טרם החל לגבש תפיסה בנושא.

בינה מלאכותית אחראית הייתה נושא לדיון לפחות מאז 2016, אך מאמצי הרגולציה בשנים האחרונות הובילו אותה לראש סדר היום של מנהלים עסקיים. עד שנת 2022 כ-40 מדינות ברחבי העולם העבירו חוקים הקשורים לבינה מלאכותית , ומדינות ממשיכות לעקוב אחר ההזדמנויות והאיומים של AI. ארה"ב למשל פרסמה תוכנית אב לא מחייבת לבינה מלאכותית, במסגרתה היא ייסדה באמצע 2024 את מועצת הבטיחות והאבטחה הראשונה של בינה מלאכותית וגיבשה הנחיות כמסגרת מקיפה ל-RAI. אולם, הגורם המוביל כיום בנושא הוא האיחוד האירופי, אשר העביר את חוק הבינה המלאכותית במרץ 2024 ושם דגש מיוחד גם על היבטי האכיפה, לרבות סנקציות וקנסות לארגונים שלא יעמדו בכללים ויימצאו לגביהם הפרות של החוק. ההשלכות של הסנקציות הללו העלולות להגיע עד ל-7% מהמחזור השנתי העולמי, מה שהופך אותו לחוק המקיף והנשכני הראשון בעולם בתחום הבינה המלאכותית.

תמונה: dreamstime

איך מתחילים ליישם RAI?

בראש ובראשונה ארגונים נדרשים ליישם RAI מתוך גישה פשוטה, אך כל כך מתבקשת, של הבנת ההשפעה של AI על בני אדם ועל האופן שבו הארגון ותהליכיו העסקיים והתפעוליים עתידים להשתנות.

הצעד הראשון הוא ביסוס משילות – כל ארגון צריך להגדיר עקרונות ברורים שמתאימים לרגולציה הקיימת. משם עוברים להערכת סיכונים: בדיקה של הפתרונות שיוטמעו בארגון והבנה של הסיכונים השונים, כמו פרטיות, שקיפות, הטיות ועוד. חשוב גם לבנות תשתית בדיקות מסודרת, כזו שתאפשר לבדוק בצורה שיטתית את כל הסיכונים האלה, ולבצע ניסויים לפני שמיישמים בפועל כך שאפשר לבדוק איך אנשים מגיבים לטכנולוגיה, אם הם מזהים טעויות ואיך זה משפיע על האמון, הדיוק והיעילות.

ברגע שמתחילים לעבוד עם GenAI, חשוב להכניס גם ניטור שוטף שיאפשר מעקב לאורך זמן. במקביל ולאורך כל הדרך כדאי לעצור ולחשוב על ההשפעה הרחבה יותר: איך הטכנולוגיה משפיעה על העובדים, אילו כישורים חשוב לפתח ואיך מוודאים שכל שכבות הניהול מוכנות לשינוי הזה?

ככל שבינה מלאכותית גנרטיבית הופכת לבחירה הראשונה לעיצוב מחדש או המצאה של תהליכים עסקיים בחברות רבות, מנהלים יצטרכו לאמץ אסטרטגיות וליישם תהליכים כדי להפוך את RAI לנפוצה ושיטתית, כי אחרת עלולות להגיע השלכות לא מכוונות ברחבי הארגון.

הסיכונים הם אמיתיים והם מדגישים את החשיבות של התמקדות בפיתוח ופריסה של פתרונות של בינה מלאכותית בטוחים ואחראיים. כדי לרתום את היתרונות מבלי להגדיל את הסיכונים, כל הארגונים צריכים לפתח טכנולוגיה באופן שמעניק עדיפות לבטיחות ומעורר ביטחון ואמון בפתרונות המוטמעים מצד כלל הגורמים הרלוונטיים.

ד"ר שאול לוי מנהל את תחום הדאטה ו-AI בחברת Accenture ומרצה באקדמיה על טרנספורמציה מבוססת טכנולוגיות מתקדמות. שירת בעבר כראש ענף מערכות מידע בצה"ל

משרות פתוחות

קטגוריות

זה המקום להכיר את החברות, המשרדים וכל מי שעושה את ההייטק בישראל (ויש גם מלא משרות פתוחות!) #תוכן מקודם