חוקרים מזהירים: המחיר האנרגטי של אימון מודלים ממוטט את רשתות החשמל
כמעט 60 חוקרים ממיקרוסופט, Nvidia ו-OpenAI טוענים כי הדרך בה מאמנים כיום בינה מלאכותית יוצרת עומס מסוכן על דאטה סנטרים

תמונה: Dreamstime
חוקרי מיקרוסופט, Nvidia ו-OpenAI יצאו בקריאה משותפת והזהירו מפני תנועת המטוטלת הקיצונית בצריכת החשמל שמתרחשת בזמן אימון מודלי בינה מלאכותית. לדבריהם, המעברים החדים בין עומסי חישוב כבדים במיוחד לבין שלבים "רזים" כמעט ללא שימוש במעבד עלולים לערער את היציבות של רשתות החשמל, להציב סיכון ממשי לציוד תשתיתי ואף להפוך את מרכזי הנתונים עצמם לפחות אמינים.
כמעט 60 חוקרים לקחו חלק במאמר החדש שמתאר את הבעיה בצורה מאוד פשוטה: בזמן החישוב האינטנסיבי ה-GPU צורך חשמל כמעט עד קצה גבול היכולת שלו. ברגע שהחישוב נעצר לטובת סנכרון בין השרתים, הצריכה צונחת כמעט לאפס.
כאשר זה קורה בסנכרון בין אלפי שרתים, נוצרים גלי עומס שנראים לא רק ברמת השרת או הארון, אלא גם ברמת מרכז הנתונים ועד לרשת החשמל הארצית. החוקרים מתארים זאת כך: "דמיינו 50 אלף מייבשי שיער, כל אחד צורך כ-2,000 וואט, נדלקים בבת אחת".
כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime
החוקרים מדגישים שהחשש הזה כבר מזמן הפך למציאות מסוכנת. ספקי חשמל ברחבי העולם מדווחים כי תנודות כאלה גורמות ל"הרמוניות" ולבעיות יציבות ממשיות ברשתות חשמל. בחלק מהמקרים מדובר בעשרות ואף מאות מגה ואט שנכנסים ויוצאים מהרשת בפרקי זמן קצרים דבר שעלול לגרום לאי יציבות ולבלאי מואץ של ציוד כמו טורבינות וקווי הולכה.
פי 3 צריכת אנרגיה ב-5 שנים בלבד
במקביל, הדוחות מצביעים על כך שצריכת האנרגיה של מרכזי נתונים רק הולכת ותגדל. משרד האנרגיה האמריקאי העריך כי ב-2023 עמד השימוש על 4.4% מכלל צריכת החשמל בארה"ב, וב-2028 המספר הזה כבר עשוי להגיע ל-12%.
כדי להתמודד עם האתגר, החוקרים הציעו שלושה כיוונים עיקריים לפתרון:
- ברמת התוכנה: להכניס משימות נוספות כשה-GPU לא מנוצל, כדי למנוע נפילות חדות בצריכה.
- ברמת החומרה: להשתמש בתכונות כמו Power Smoothing, שמכניסות את המעבד לעלייה וירידה הדרגתית בצריכת החשמל.
- ברמת הדאטה סנטר: מערכות אגירת אנרגיה בסוללות, שמאזנות את העומסים מקומית בלי להכביד על רשת החשמל.
כל אחת מהשיטות הללו באה עם חסרונות: תוכנה פוגעת בביצועים, חומרה דורשת יותר אנרגיה, וסוללות יקרות לתחזוקה. לכן, החוקרים טוענים שהפתרון טמון בשילוב של שלושתם, לצד שיתוף פעולה הדוק בין יצרני חומרה, ספקי ענן וחברות החשמל.
המסר של מיקרוסופט, Nvidia ו-OpenAI ברור: אי אפשר להמשיך לאמן מודלי AI בקנה מידה עצום מבלי לקחת בחשבון את המחיר האנרגטי. הם קוראים לתעשייה לבנות סטנדרטים חדשים, לפתח אלגוריתמים "מודעים לחשמל", וליצור שפה משותפת בין ספקי ענן למפעילי רשתות חשמל.