גוגל, OpenAI ואנת'רופיק מנסות להרשים את הרגולטורים

גוגל השיקה מודל LLM פרטי לארגונים, ואנת'רופיק ו-OpenAI חתמו על שיתוף פעולה עם ממשלות ארה"ב ואנגליה. איך זה מראה שתעשיית ה-AI נכנסת לשלב חדש?

רונה חזקיה
17.9.25

נוצר באמצעות AI

שני נושאים מעסיקים היום את אנשי ה-IT והסקיוריטי בארגונים: פרטיות ואחריות. המרוץ להטמעת טכנולוגיות AI מעלה המון שאלות חשובות, שלא בהכרח קשורות רק ליכולות הטכנולוגיה, ונראה שענקיות ה-AI מתחילות להבין שהן צריכות לתת פתרונות אמיתיים לחששות של ארגונים וממשלות.

גוגל השיקה LLM פרטי לארגונים

גוגל הכריזה אתמול על VaultGemma, גרסה של מודל השפה שלה Gemma שתוכננה במיוחד כדי לשמור על פרטיות המידע. הרעיון הוא שהמודל ירוץ בסביבה המאובטחת של הלקוח – כלומר הנתונים הרגישים לא יוצאים מהארגון. זה פתרון שנועד לתת שליטה מלאה על הדאטה, ועל אף שזה נכון כמעט לכל ארגון, הוא רלוונטי במיוחד לתעשיות פיננסים ורפואה למשל, שבהן יש חשש אמיתי שהמידע הסודי ידלוף או ינוצל לרעה.

המודל החדש משתמש בטכניקה של "פרטיות דיפרנציאלית" (Differential Privacy) כדי להפחית את הסיכוי לשינון (memorization) של נתונים רגישים. במילים פשוטות, הטכנולוגיה מוסיפה "רעש" מחושב ומכויל לנתוני האימון, וכך הנתונים נשארים פרטיים גם במהלך תהליך הלמידה של המודל. התוצאה היא מודל שמתפקד ברמה דומה למודלים לא פרטיים בגודל דומה, אבל שומר טוב יותר על פרטיות הנתונים המקוריים ששימשו לאימונו.

תמונה: גוגל

VaultGemma משלב יכולות On-Premise ו-Cloud. ליבת המודל (מודל השפה עצמו) מותקנת על השרתים של הלקוח, והוא פועל בתוך גבולות הרשת הארגונית. עם זאת, כדי לשמור על המודל מעודכן ולשפר את הביצועים שלו, ייתכן שגוגל תספק עדכונים ותיקונים דרך שירותי הענן שלה. המבנה הזה נותן לארגון את הטוב משני העולמות: שליטה מלאה על הנתונים הרגישים מצד אחד, וקבלת עדכוני אבטחה וביצועים שוטפים מצד שני. הגישה הזו מייצרת פתרון היברידי שמקל על אנשי ה-IT לשמור על המערכת מעודכנת ומאובטחת.

OpenAI ואנתרופיק: משתפות פעולה עם ממשלות

מה שעוד קרה השבוע הוא שהחברות OpenAI ואנת'רופיק הודיעו על שיתוף פעולה עם ממשלות ארה"ב ובריטניה. החברות יאפשרו לממשלות לבצע "הערכת בטיחות" (Safety Evaluations) של המודלים המתקדמים ביותר, ויתנו גישה למודלי הליבה שלהן, לרבות מודלי קוד סגור. בתמורה הגופים הממשלתיים יבצעו עליהם מחקרים מקיפים שיבחנו את הפוטנציאל של המודלים לשימוש לרעה, יזהו חולשות אבטחה ויסייעו לפתח כלים ופרוטוקולים כדי שבממשלות יוכלו לפקח על טכנולוגיות AI באופן יעיל יותר.

המהלך הזה מגיע כמובן כתגובה למודעות הגוברת בקרב רגולטורים וגופי ממשל לחשיבות הפיקוח על עולם ה-AI. ככל שמודלי שפה הופכים לחלק אינטגרלי מהכלכלה והחברה, כך גדל גם הצורך בבדיקה מדוקדקת של הסיכונים הפוטנציאליים שלהם – מיצירת דיסאינפורמציה בקנה מידה רחב ועד לסיכונים ביטחוניים ממשיים.

האם מדובר ביוזמה של אחריות תאגידית אמיתית או יחסי ציבור? מצד אחד יש פה שיתוף מידע סודי שמעיד על רצון טוב להגברת הבטיחות; מצד שני, יש ניסיון להקדים רגולציה כפויה ולשמור על מידה של שליטה בתהליך הפיקוח. נראה שזה איזון עדין, מעין הסכם של ג'נטלמנים שמראה על דבר אחד ברור: החברות מבינות שהרגולציה בדרך ושבלי אמון מצד הציבור והממשל הן לא יוכלו להמשיך לפתח ללא הפרעה.


כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime


אז מה הקשר?

לכאורה שמנו פה שתי ידיעות מעולמות שונים, אבל יש בהן חוט מקשר שמראה על מגמה ברורה: תעשיית ה-AI נמצאת בשלב של התבגרות. זה כבר לא רק מרוץ לפתח את המודל הכי גדול, עכשיו הן גם צריכות לענות על שאלות של פרטיות, שקיפות ובטיחות.

בעוד VaultGemma נותן מענה פרקטי לחברות שחוששות מפרטיות, שיתוף הפעולה של OpenAI ואנתרופיק מתייחס לאתגרים גלובליים יותר. בשני המקרים, חברות הטק מבינות שהן לא יכולות להמשיך לפעול בוואקום, והן חייבות לתת מענה לשאלות של בטיחות, פרטיות ואמינות.

ומה זה אומר על הארגונים? זה הזמן לחדד את הדרישות מול הספקים: להיות ערניים למגמה הזו ולדרוש פתרונות אמינים שבאמת עומדים בהבטחות; לשאול לא רק מה המודל יודע לעשות, אלא איך הוא שומר על המידע ואילו סטנדרטים בינלאומיים הוא מיישם. אמנם בישראל אין עדיין רגולציה מחייבת, אבל המגמה ברורה – והיא תשפיע גם כאן.

 

משרות פתוחות

קטגוריות

זה המקום להכיר את החברות, המשרדים וכל מי שעושה את ההייטק בישראל (ויש גם מלא משרות פתוחות!) #תוכן מקודם