ה-AI אוטונומי, אבל האחריות אנושית סוכני בינה מלאכותית נכנסים למצבת העובדים בארגון, מה צריך לעשות כדי להבטיח שהשינוי יתרום ולא יפגע? { AI } איתי מרגלית 7.8.25 { AI } איתי מרגלית 7.8.25
"המערכת נתנה תשובה שגויה, ועכשיו אף אחד לא סומך עליה" טעות אחת קטנה - ואמון שלם במערכת מתרסק. מה קרה כשמנהל צוות סמך על AI, ואיך אפשר למנוע את זה אצלכם? { זה לא עובד ככה } ליאור אברהם 28.7.25 { זה לא עובד ככה } ליאור אברהם 28.7.25
טראמפ רוצה רגולציה רזה ל-AI. מי שיישא באחריות הם הארגונים הצו הנשיאותי החדש של טראמפ מצהיר מלחמה על "Woke AI" ומסיר חסמים מהמגזר הטכנולוגי, אבל מתעלם מהשאלה הקריטית: מה קורה כשה-AI שוגה, מפלה או מפר זכויות? ללא רגולציה, האחריות הולכת ליפול על כתפי הארגונים { AI } ניב גילינסקי 24.7.25 { AI } ניב גילינסקי 24.7.25
"הלקוחות גילו שהנציגה היא בינה מלאכותית, והאמון קרס" בכל פעם נביא סיפור קצר מהשטח - טעויות, אי-הבנות ותקלות שמתרחשות כש-AI נכנס לארגונים גדולים ופוגש מציאות מורכבת. לרוב יש גם תובנות { זה לא עובד ככה } ליאור אברהם 21.7.25 { זה לא עובד ככה } ליאור אברהם 21.7.25
מדוע ארגונים סלחניים כל כך להתנהגויות מסוכנות של הבינה המלאכותית? היא מסתירה פרצות, עוקפת מגבלות ופועלת בדרכים שמיטיבות איתה, ובכל זאת אנחנו ממשיכים לסמוך עליה. מערכות הבינה המלאכותית הופכות לאיום פנימי, אבל הארגונים שמאמצים אותם לא שואלים את השאלות הקשות. למה? { אבטחה וסייבר } לאוניד פיינברג 7.7.25 { אבטחה וסייבר } לאוניד פיינברג 7.7.25