כש-AI הופך לכלי שליטה: כך סין משתמשת בבינה מלאכותית נגד אזרחיה
מחקר חדש מגלה כיצד בייג'ינג הופכת את הבינה המלאכותית למנוע צנזורה, השגחה והשפעה בינלאומית

תמונה: Dreamstime
מאז כניסת הבינה המלאכותית לחיינו, נראה כי התרגלנו כל כך להיעזר בכלי ה-AI, שקצת שכחנו שיש מי שיכולים להשתמש בה כדי דווקא לייצר לעצמם שליטה וכוח, ולא – אנחנו לא מדברים על מתקפות סייבר מתוחכמות או דיפ פייק מוצלח, אלא על מדינות שינצלו את ה-AI כדי לשלוט טוב יותר באזרחים שלהן. דוח חדש של מכון המחקר Australian Strategic Policy Institute (ASPI) חשף כי סין מנצלת את הבינה המלאכותית כדי לסייע בצנזורה ובהשגחה על אזרחיה. בנוסף, נראה כי סין לא מסתפקת בשליטה על אזרחיה שלה, אלא רוצה לייצא את הטכנולוגיה הזו גם למדינות אחרות בעולם.
הדוח שפורסם אתמול, תחת הכותרת "The party’s AI: How China’s new AI systems are reshaping human rights", מצביע על הבדל מהותי בגישה ל"בטיחות AI" בין המערב לסין. בעוד שבאירופה ובארה"ב, המונח מתמקד בעיקר ביצירת טכנולוגיה בטוחה והוגנת, בסין, לפי הדוח, "בטיחות AI" מוגדרת כווידוא שהבינה המלאכותית מקדמת את "הערכים הסוציאליסטיים המרכזיים" ואת היציבות הפוליטית של המדינה.
על פי הדוח, הבינה המלאכותית מסייעת לשלטונות בסין להשיג את מטרותיה במגוון דרכים: אחת מהן היא צנזורת מודלים כך שהם מסרבים להשיב לשאלות רגישות, משמיטים מידע או מחזקים נרטיבים רשמיים. החוקרים בדקו ארבע מערכות AI סיניות: Ernie Bot של Baidu,Qwen של Alibaba,GLM של Zhipu AI, ו-VL2 של DeepSeek, באמצעות מאגר תמונות שכלל את מחאות הונג קונג ב-2019, אירועי טיאנאנמן, טקסי זיכרון, מנהיגי המפלגה הקומוניסטית, הפגנות פאלון גונג ונושאים רגישים נוספים.
באופן לא מפתיע, הממצאים הראו כי המודלים הסיניים מציגים צנזורה קפדנית הרבה יותר מאשר מקביליהם מהמערב בכל מה שקשור לפוליטיקה. ברירת המחדל של המודלים הייתה כלל לא להשיב על השאלות, תופעה בולטת במיוחד כשהמודלים הופעלו דרך ספקי ענן מבוססי סינגפור ולא ארה״ב שם ההנחיות גרמו לתגובות ללא תוכן או הודעות שגיאה. ASPI ציינו כי הסירוב להשיב הוא לא פרט שצריך להתעלם ממנו מכיוון שהמודלים הסיניים צוברים פופולריות ברחבי העולם. הדוח קובע כי "האיום טמון פחות בתעמולה גלויה ויותר במחיקה שקטה, כאשר המכונה שמתארת את המציאות מתחילה להחליט אילו חלקים מהמציאות מותר לראות".
צנזורה בקנה מידה עצום
נכון לכתיבת הדוח, ASPI טוענים כי ה-AI מבצע כבר את רוב פעולות הצנזורה ברשת בסין: הוא סורק כמויות בלתי נתפסות של תוכן, מסמן הפרות אפשריות ומוחק תכנים אסורים בתוך שניות מרגע שנחשף אליהם. לטענתם, השלטונות מחייבים חברות מקומיות לפתח מנגנוני סינון מבוססי AI ולאחר הפיתוח, המנגנונים הופכים להיות חלק אינטגרלי ממערך הצנזורה הסיני.
עם זאת, הדוח מדגיש את הצורך המתמשך בפיקוח אנושי על הצנזורה. הסיבה לכך היא שהבינה המלאכותית מתקשה להבין סאטירה, להתמודד עם התפתחות הסלנג ואינה שולטת באופן מלא בכל השפות והמבטאים של קבוצות מיעוט שחיות בסין.
כל עדכוני ה-IT, תשתית וטכנולוגיה בערוץ הטלגרם של ITtime
לפיכך, סין ביצעה "הפרטה" חלקית של מנגנון הצנזורה שלה: היא מחייבת עסקים קטנים ובינוניים ל"משמעת עצמית" על מנת שיפקחו על המשתמשים שלהם. פיקוח זה מתבצע באמצעות כלי AI, אך גם על ידי הכשרת עובדים למלא את הפערים שבהם האלגוריתמים עדיין אינם מדויקים.
הדוח חושף גם כיצד השתנתה מערכת המשפט הסינית, המגבירה את השימוש ב-AI. התהליך מתחיל בזיהוי ומעצר באמצעות מצלמות AI. בבית המשפט, AI מנסח אישומים וממליץ על גזר דין. לאחר מכן, במתקני כליאה, חשודים נתונים לניטור שמנתח רגשות ומשדר נתונים למרכז שליטה. לטענת ASPI, מערכות אלו משפרות יעילות אך מעצימות את כוח המדינה ופוגעות בשקיפות ובזכויות אדם.
ואיך זה משפיע על העולם?
על פי החוקרים, סין החלה להפעיל את הטכנולוגיה שלה גם מחוץ למדינה, כך שמדינות נוספות מושפעות ממנה כבר היום. "הממשלה הסינית תומכת בתעשיית דיג לאומית שמפרה באופן קבוע את זכויות הדיג של אזרחים בלפחות 80 מדינות", נכתב. לטענת ASPI, סין משתמשת בפלטפורמות AI חדשניות, אחת מהן, AoXin 1.0, מנתחת בזמן כמעט אמת את אזורי הדיג המתאימים ביותר. היא סייעה לזהות ארבעה אזורי דיג חדשים ושיפרה את הצלחת הספינות בעד 20%.
לדברי המכון, מדינות רבות בעלות משטרים אוטוקרטיים או דמוקרטיות חלשות רוכשות בהתלהבות את הטכנולוגיות הללו, מה שמגביר את השפעתה של סין. במקביל, סין מנסה להטמיע את תפיסת ה-AI שלה כסטנדרט בינלאומי באמצעות השתתפות בארגוני רגולציה ותקינה.
בסופו של דבר, הדוח של ASPI מצייר תמונה מטרידה על האופן שבו בינה מלאכותית יכולה להפוך מכלי לחדשנות וכלכלה לכלי לריכוז כוח ולשליטה אנושית. בעוד שבמערב ממשיכים לדון בבטיחות מודלים, שקיפות וקוד פתוח, סין מדגימה כיצד אותם מנגנונים בדיוק יכולים לשמש ליצירת מציאות מצונזרת, למעקב עמוק ולייצוא של מודל שלטוני טכנולוגי למדינות אחרות.