ב-OpenAI מודים: קצב ההתקדמות ביכולות הסייבר מחייב הגבלות על AI

בפוסט שפרסמה החברה היא הזהירה כי המודלים הבאים עלולים להקל על תכנון וביצוע פשעי סייבר מתקדמים

מערכת ITtime
14:00

סאם אלטמן. מקור: OpenAI

OpenAI מזהירה שמודלי הבינה המלאכותית הבאים שלה עלולים להפוך גם לכלי תקיפה מתקדמים. בפוסט שפרסמה בשבוע שעבר, החברה הודתה כי קצב ההתקדמות ביכולות הסייבר של המודלים מחייב שינוי עמוק באופן שבו הם מפותחים, נבדקים ומונגשים, מחשש לשימוש זדוני בקנה מידה שעד היום כמעט לא היה אפשרי.

החשש, לפחות לפי החברה של סם אלטמן, אינו תיאורטי. ב-OpenAI ציינו כי כבר בעבר זוהו ניסיונות של גורמים עברייניים להשתמש במודלים שלה כדי לעשות אוטומטיזציה עבור קמפייני נוזקה, ובמקרים מסוימים אף נחסמו חשבונות שבהם אותרה פעילות חשודה. כעת, עם ההתקדמות המהירה ביכולות המודלים, החברה מעריכה שהאיום רק הולך ומחריף.

"יכולות הסייבר של מודלי AI מתקדמות בקצב מהיר, ומביאות איתן יתרונות משמעותיים להגנה לצד סיכונים חדשים שדורשים ניהול זהיר", כתבה החברה בפוסט.

קפיצה חדה ביכולות תוך זמן קצר

כדי להמחיש את קצב ההתקדמות, ב-OpenAI הציגו תוצאות שהתקבלו ממבחני Capture the Flag. לפי נתוני החברה, מודל GPT-5 השיג ציון של 27% בלבד באתגר, אך כעבור כמה חודשים בלבד GPT-5.1-Codex-Max כבר הגיע ל-76%. ב-OpenAI מציינים כי הם מצפים שמודלים עתידיים "ימשיכו באותו כיוון".

המשמעות, לפחות מבחינת החברה, היא שכל מודל חדש צריך להיתפס ככזה שעשוי להגיע לרמות גבוהות במיוחד של יכולות סייבר, כשבחברה התייחסו ספציפית למודלים שמסוגלים "לפתח מתקפות Zero-Day מרחוק על מערכות מאובטחות היטב, או לסייע באופן משמעותי לפעולות חדירה מורכבות, חמקניות וארגוניות עם השפעה בעולם האמיתי".

האזהרות של OpenAI משתלבות במגמה רחבה יותר בתעשייה. בחודשים האחרונים גוברים הדיווחים על שימוש הולך ומעמיק ב-AI מצד קבוצות תקיפה. גוגל דיווחה לאחרונה על נוזקה שהשתמשה ב-AI כדי להסתגל לסביבה שלה במהלך התקיפה, ובאוגוסט זוהתה גרסת כופרה שעשתה שימוש במודל של OpenAI. גם Trend Micro ו-NetScout הזהירו כי תוקפים כבר משתמשים בצ’אטבוטים מבוססי AI לצורך יצירת קוד זדוני וביצוע מתקפות DDoS.

לנסות להטות את הכף

ב-OpenAI הדגישו כי המענה שלהם לאיום מתמקד קודם כול בהעצמת הצד ההגנתי. לדבריהם, המטרה היא להפוך את המודלים לכלים שמסייעים לאנשי סייבר, בין היתר באמצעות בדיקות קוד ואיתור באגים. "המטרה שלנו היא שהמודלים והמוצרים שלנו יספקו יתרון ממשי למגינים, שלרוב פועלים עם פחות משאבים ופחות כוח אדם", מסרה החברה.

עם זאת, ב-OpenAI מודים שאותם כלים עצמם עלולים לשמש גם את הצד התוקף. לכן, לדבריהם, הם נוקטים בגישת Defense-in-Depth, הכוללת שילוב של בקרות גישה, הקשחת תשתיות, בקרות יציאה ומנגנוני ניטור, לצד מערכי זיהוי ותגובה, מודיעין איומים ותוכניות לניהול סיכוני פנים.

בפועל, המשמעות היא אימון המודלים לסרב לבקשות מזיקות תוך שמירה על שימושים חינוכיים ולגיטימיים, חסימת פלטים שעלולים לשמש לפעילות זדונית, ושילוב של בקרה אוטומטית ואנושית. בנוסף, OpenAI שוכרת ארגוני Red Team שתפקידם לנסות ולעקוף את כלל שכבות ההגנה. "התפקיד שלהם הוא לנסות לעקוף את כל מנגנוני ההגנה שלנו מקצה לקצה, בדיוק כפי שתוקף נחוש ובעל משאבים היה עושה", נכתב.

כחלק מהשינוי בגישה, OpenAI הכריזה על תוכנית "גישה מהימנה" לשותפים וללקוחות מוכרים מעולמות האבטחה, שתאפשר להם גישה למודלים העדכניים וליכולות מתקדמות. עם זאת, החברה מדגישה שהיא עדיין בוחנת היכן עובר הקו בין יכולות שצריכות להיות זמינות באופן רחב, לבין כאלה שיידרשו עבורן מגבלות גישה הדוקות יותר.

במקביל, כלי האבטחה האוטונומי של החברה, Aardvark, נכנס לשלב בטא פרטי. הכלי מסוגל לאתר חולשות ולהציע תיקונים, וב-OpenAI מציינים כי כבר הצליח לזהות פרצות חדשות בקוד פתוח. החברה אף הודיעה כי תאפשר שימוש חינמי ב-Aardvark לחלק מפרויקטי קוד פתוח לא מסחריים, במטרה לחזק את אבטחת האקוסיסטם ושרשרת האספקה שלהם.

מעבר לכך, OpenAI הודיעה על כוונתה להקים Frontier Risk Council – גוף מייעץ שיפקח מקרוב על הסיכונים במודלים שלה ולשתף פעולה עם מפתחות AI אחרות במסגרת Frontier Model Forum, גוף ללא מטרות רווח המתמקד במודלי איומים.

משרות פתוחות

קטגוריות

זה המקום להכיר את החברות, המשרדים וכל מי שעושה את ההייטק בישראל (ויש גם מלא משרות פתוחות!) #תוכן מקודם