קלוד, ג'יימס קלוד: Anthropic הציגה בינה מלאכותית למרגלים בלבד

אנת'רופיק חשפה גרסה מיוחדת של Claude שתפעל בארגוני הביטחון הלאומי האמריקאים ומותאמת להתמודד עם מידע מסווג וסביבות עבודה סודיות

מערכת ITtime
8.6.25

מרגל שנוצר על ידי בינה מלאכותית. תמונה: ChatGPT

גדלתם על ספיי קידס? עמדתם מול המראה וניסיתם להגיד בסמכותיות "בונד, ג'יימס בונד"? אם עניתם ב"כן, ברור" על לפחות אחת משתי השאלות האלו, כנראה שגם אתם חלמתם בשלב מסוים להיות מרגלים. אתם אולי עדיין חולמים איך יום אחד דופקים לכם על הדלת ומבקשים מכם לצאת למשימה חשובה שאף אחד מלבדכם לא יכול לבצע, ובינתיים הבינה המלאכותית עקפה אתכם גם בתחום הריגול.

ביום חמישי האחרון חשפה חברת הבינה המלאכותית של יוצאי OpenAI, אנת'רופיק (Anthropic), את המודלים החדשים של Claude, אשר מיועדים באופן רשמי ובלעדי ללקוחות בתחום הביטחון הלאומי של ארצות הברית. המודלים, המקובצים תחת השם "Claude Gov", פותחו לאחר עבודת מחקר ומשוב שהתקבל מלקוחות ממשלתיים ומיועדים לתת מענה עבור משימות בתחום התכנון האסטרטגי וניתוח מודיעיני. על פי חלק מהדיווחים, המודלים כבר הוכנסו לשימוש בחלק מסוכנויות הביטחון האמריקאיות כאשר הגישה אליהם מוגבלת לכמות מצומצמת של משתמשים שקיבלו דרגות סיווג מידע גבוהות.

למי שקיווה שהבינה המלאכותית למרגלים תכף תגיע גם למחשב האישי שלו, יש לנו חדשות מצערות. כמו שאמר פעם הדוד בן לפיטר פרקר הצעיר: "עם כוח גדול מגיעה אחריות גדולה" באנת'רופיק מבינים שכנראה לא כולם ינצלו את היכולות האלו בשביל להיות הגיבור, ולכן הכלים החדשים לא יגיעו לגרסאות הצרכנים והעסקים של קלוד, גישה חכמה אם תשאלו אותנו, בטח כשנזכרים במקרה בו הסיסמה של ראש מערך המודיעין האמריקאי דלפה לרשת לאחר שלא החליפה אותה במשך שנים.

ההבדל הוא בהכשרה

בדיוק כפי שמרגלים צריכים לעבור סדרת אימונים שונה משל אדם רגיל ומקבלים סמכויות שונות, כך גם המודלים לסוכנויות הביון של אנת'רופיק. על פי דיווחים שונים הם מסוגלים לטפל בחומרים מסווגים, ויתנו מענה גם לנושאים בהם משתמשים רגילים יקבלו סירוב. בנוסף, הם מותאמים לטפל במסמכי מודיעין וביטחון ובעלי  שליטה טובה יותר בשפות וניבים שחשובים לפעילות בתחום הביטחון הלאומי האמריקאי. החברה ציינה כי המודלים החדשים עברו את אותם "מבחני בטיחות" כמו כל מודלי קלוד, מה שכמובן נדרש על מנת לקבל חוזים ממשלתיים.

לא מדובר בחברה הראשונה שמשיקה כלי בינה מלאכותית למרגלים: OpenAI עשתה זאת כבר בשנה שעברה, כאשר השיקה גרסה נפרדת של GPT-4 עבור קהילת המודיעין האמריקאית. המערכת פעלה על גבי רשת ייעודית לממשלה, ללא חיבור לאינטרנט, ונעשתה זמינה עבור כ-10,000 אנשי מודיעין לצורך ניסוי ומענה על שאלות.


כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime


השימוש ב-AI כבר ידוע ככזה שלעיתים פועל דווקא כחרב פיפיות, ומייצר מידע שגוי בצורה אמינה, כך שאם במקרה יש בין הקוראים איזה מרגל שחושש שה-AI יעקח את מקומו – הסר דאגה מליבך, כנראה שעדיין תצטרך להשתמש בשיטות הישנות כדי לאמת חלק מהמידע שתקבל ממנו.

הפנייה של חברות ה-AI לעולמות הביטחון מייצגת שינוי עמוק בגישה, כזה שרבות מהן נמנעו ממנו בגלוי עד לא מזמן. OpenAI, אנת'רופיק, מטא, גוגל, כולן כבר עמוק בתוך המרוץ על חוזים שמנים מול תעשיות הביטחון. אבל ככל שהמודלים הולכים ומקבלים תפקיד מרכזי יותר בזירה הרגישה ביותר שיש, אי אפשר להתעלם מהשאלה הפשוטה אך המטרידה: מי ישגיח על גבולות השימוש בטכנולוגיה הזו, ומה יקרה אם או יותר נכון כשהיא תיפול גם לידיים של הצד השני?

משרות פתוחות

קטגוריות

זה המקום להכיר את החברות, המשרדים וכל מי שעושה את ההייטק בישראל (ויש גם מלא משרות פתוחות!) #תוכן מקודם