אנת'רופיק חושפת: כך הפך Claude לכלי נשק בידי תוקפים
חברת ה-AI פרסמה כיצד נעשה שימוש במודל שלה לצורך מתקפות כופר, זיוף זהויות, חדירה לרשתות ארגוניות ומכירת נוזקות

תמונה: Anthropic
בשנים האחרונות הפכו מודלי בינה מלאכותית כמו ChatGPT ,Claude ו-Gemini לחלק בלתי נפרד מתהליכי עבודה, שירות לקוחות ופיתוח עסקי. אך ככל שיותר ארגונים משלבים אותם ביומיום, כך גם תוקפים מתחילים לנצל את היכולות האלו למטרות הרבה פחות תמימות. תקיפות סייבר שבעבר דרשו ידע מקצועי, כוח אדם ולא פעם גם תקציב רציני, הפכו נגישות גם לפושעים בעלי ידע טכני מוגבל. כל שנדרש הוא להפעיל מודל שפה, להזין כמה שורות של פרומפט ולקבל נוזקה מוכנה לשימוש.
לאחר שבשבוע שעבר נחשפה PromptLock, תוכנת הכופר הראשונה שנכתבה ומופעלת במלואה על ידי AI, כעת גם חברת ה-AI אנת'רופיק חושפת בדוח מודיעין חדש כיצד נעשה שימוש ב-Claude כדי לבצע מתקפות סחיטה, לייצר נוזקות ואף לנהל מערכות הונאה מתוחכמות נגד ארגונים.
אחת הדוגמאות המרכזיות בדוח מתארת מערך סחיטת נתונים רחב היקף שבוצע בסיוע Claude Code, סוכן הקוד של החברה. לפי Anthropic, תוקף יחיד הצליח לבצע אוטומציה כמעט מלאה של כל שלבי התקיפה, תוך שהוא מקבל סיוע משמעותי מה-AI.
כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime
המודל הופעל כך שיזהה ארגונים פגיעים, יחדור לרשתות שלהם, יבצע ניתוח פיננסי של הקבצים הגנובים ואף ייצר מכתבי סחיטה מותאמים אישית. במהלך האירוע הותקפו לפחות 17 גופים שונים במגוון מגזרים, כולל מוסדות בריאות, שירותי חירום, משרדי ממשלה ועמותות דתיות. דרישות הכופר במהלך האירוע נעו בין 75 אלף דולר לחצי מיליון דולר בביטקוין.
באנת'רופיק זיהו כי בין היתר Claude Code סייע לאתר חוזים ביטחוניים רגישים, לנתח מאגרי שכר ודוחות כספיים, ולהפיק מסמכי סחיטה עם תרחישי איום מדויקים. המודל הוא שקיבל החלטות טקטיות ואסטרטגיות, כמו איזה מידע לגנוב, כיצד לפנות להנהלה ואפילו איך לחשב את גובה הכופר בהתאם ליכולת התשלום של הארגון.
העובדים הצפון קוריאנים שיכללו את השיטה
מקרה אחר מפרט כיצד האקרים מצפון קוריאה השתמשו ב-Claude כדי ליצור זהויות בדויות ולשכנע חברות טכנולוגיה להעסיק אותם מרחוק, במה שהפכה לתופעה רחבה בשנה האחרונה. המודל שימש להכנת קורות חיים, סייע במעבר מבחנים טכניים ואפילו כתב קוד ברמה שהספיקה כדי לא לעורר חשד בקרב המעסיקים.
לפי הדוח, השימוש ב-LLM ביטל את צוואר הבקבוק המסורתי של הכשרה מקצועית ארוכה. כיום, גם מפעילים שאינם יודעים לקודד או לדבר אנגלית ברמה גבוהה מסוגלים לעבור ראיונות עבודה ולהשתלב במשרות טכנולוגיות.
בנוסף, החברה תיעדה שימוש במודל לצורך פיתוח ומכירה של תוכנות כופר בפורומים ברשת האפלה. במקרה זה, משתמש בעל ידע טכני מוגבל נעזר ב-Claude כדי לייצר נוזקה עם יכולות התחמקות, הצפנה ומניעת שחזור מידע. ערכות הנוזקה נמכרו בין 400 ל-1,200 דולר.
בחברה הדגישו כי סגרו את החשבונות המעורבים, שיתפו את ממצאי החקירה עם שותפים בתעשייה ורשויות רלוונטיות, והטמיעו מנגנוני זיהוי חדשים כדי למנוע מקרים דומים בעתיד. בין היתר, פותח "מסווג" (classifier) ייעודי שמזהה פעילות עוינת כזו בזמן אמת.לצד הדוגמאות המרכזיות, הדוח ציין גם ניסיונות תקיפה של תוקף סיני נגד תשתיות בווייטנאם, הונאות פיננסיות שהסתמכו על AI לאימות כרטיסי אשראי גנובים והונאות נוספות.
ככל שמודלים גנרטיביים הופכים זמינים, נגישים וחכמים יותר, כך גם תוקפים לומדים לרתום אותם לצרכים פליליים: מכתיבת קוד זדוני והפצת נוזקות, דרך הנדסה חברתית ועד השתלבות מתוחכמת בתשתיות של חברות. Claude כמובן, הוא רק אחד מהכלים אך הוא מדגים תופעה רחבה הרבה יותר: יכולות AI שמיועדות לייעול ושיפור הופכות לכלי נשק שפועל בקצב גבוה.