ברוכים הבאים לעידן המציאות הסינתטית

תרחישים של שימוש לרעה בדיפ-פייק מתארים פגיעה חסרת תקדים בנושאי ביטחון לאומי ואכיפת החוק, הסתה לאלימות ושיבוש ראיות בתיקים פליליים, פורנוגרפיה ללא הסכמה והתערבות במערכות בחירות. בקרוב לא נוכל יותר להבחין בין מציאות אמיתית למזויפת

אני לא מורגן פרימן, ומה שאתם רואים אינו אמיתי. ובכן, לפחות במונחים עכשוויים. מה אם הייתי מספר לכם שאני אפילו לא בן אנוש? הייתם מאמינים לי? מה היא תפיסת המציאות שלכם? האם זאת היכולת לקלוט, לעבד ולהבין את המידע שהחושים שלנו קולטים? אם אתם יכולים לראות, לשמוע, לטעום או להריח משהו, האם זה הופך אותו לאמיתי? או שאולי זוהי פשוט היכולת להרגיש? ברוכים הבאים לעידן המציאות הסינתטית. עכשיו, מה אתם רואים?”

זהו הטקסט המפורסם מפיו של דיפ-פייק מורגן פרימן לפני כשנתיים, באירוע שנחשב כסוג של סינגולריטי – היכולת של המחשב להשפיע על הצופה כך שלא ידע לזהות אם מדובר במציאות או ביצירה ממוחשבת. הקול והאינטונציה שלו היו מדויקים להפליא, תמונת הווידאו היתה חדה ומדויקת אף היא, ואם לא היו מפרסמים את השחקן שעליו הלבישו את קולו ומראהו של פרימן – לא ניתן היה להבחין שמדובר בדיפ-פייק.

הטכנולוגיה כבר כאן. סטארט-אפים רבים כבר מאפשרים לייצר סרטונים שבהם מלבישים דמות אחת על גבי דמות אחרת, באופן שהפנים מוחלפות והשפתיים זזות כמעט במדויק. סטארט-אפים אחרים מאפשרים לייצר הקלטת קולו של כל אדם לאחר דגימה אקראית של כ-15 שניות בלבד. השימושים בטכנולוגיה הזאת הם מעבר לכל דמיון. לדוגמה, בשנה שעברה נעשה בה שימוש בהוליווד כדי להצעיר את פניהם של השחקנים טום קרוז והאריסון פורד, בסרטים שוברי קופות בכיכובם; אנשים פגועי דיבור יכולים כעת לייצר קול מסונתז שנשמע כמו קולם לפני שנפגעו; אנשי שיווק משפשפים ידיהם בהנאה כאשר אינם נדרשים יותר לשכור שחקנים ואולפנים יקרים, ובלחיצת כפתור מסוגלים לייצר סרטוני פרסומת איכותיים.

ואולם, הסכנות הגלומות בטכנולוגיה הזאת חסרות תקדים. במספר דוחות רשמיים של זרועות המודיעין והקונגרס האמריקאי עולות השלכות שליליות גדולות שלה, ומתוארים תרחישים פוטנציאליים של שימוש לרעה, הנובעים מטכנולוגיית דיפ-פייק במגזרים שונים. כך למשל בנושאי ביטחון לאומי ואכיפת החוק, הסתה לאלימות באמצעות סרטונים מפוברקים של מפורסמים, שיבוש ראיות בתיקים פליליים וסיכונים הקשורים למסחר, כמו חבלה תאגידית והונאה, ויותר מכך – סיכונים חברתיים כגון בריונות ברשת, פורנוגרפיה ללא הסכמה והתערבות במערכות בחירות.

לפי הממשל האמריקאי נדרש צורך דחוף בשיתוף פעולה בין ממשלות, חברות טכנולוגיה והציבור הרחב כדי להתמודד עם האתגרים ההולכים וגדלים, שמציבה טכנולוגית הדיפ-פייק המתפתחת במהירות. גם בישראל פורסם בשנה שעברה דוח דומה של משרד המשפטים הישראלי, ובו דרישה לרגולציה של נושא הבינה המלאכותית כדי להתמודד עם הסכנות.

סכנה לדמוקרטיה

הנה מספר דוגמאות מהעת האחרונה שממחישות את הסכנה: 25 מיליון דולר נגנבו מחשבונה של חברה בהונג קונג, כאשר שודדי רשת הצליחו לייצר שיחת וידאו עם דמותו של סמנכ”ל הכספים בחברה, שהורה לעובד תמים להעביר את הכסף; סרטונים מזויפים של כוכבות העל טיילור סוויפט וסלינה גומז, בהם פירסמו לכאורה סט כלים של חברת לה-קרוסה, הופצו ברחבי הרשת במה שנראה כפרסומת אותנטית לחלוטין – אלא שהן לא היו ולא נבראו; תעשיית המוזיקה רועשת זה זמן רב כאשר אמנים רבים דורשים מספוטיפיי להסיר שירים מזויפים שלא נכתבו או בוצעו על ידם, אלא על ידי מעריצים, באמצעות טכנולוגיית דיפ-פייק.

אחד מן האיומים הגדולים ביותר הוא שימוש בדמויותיהם של מפורסמים בסרטוני פורנו; הטכנולוגיה מאפשרת בקלות רבה להלביש את פניהם וגופם של ידוענים בסרטונים שבהם כלל לא לקחו חלק. למעשה, אחד המקרים הראשונים של דיפ-פייק היה כאשר נעשה שימוש כזה בפניה של השחקנית גל גדות עוד ב-2017, והשנה כבר נעשה שימוש דומה בטכנולוגיה כדי לפגוע בפוליטיקאיות; בניו יורק-פוסט פורסם שרוסיה מתכננת להשתמש בה ככלי נשק נגד מנהיגות במדינות דמוקרטיות מערביות. מיותר לציין כי שימוש כזה פוגעני בדיפ-פייק – מעבר להיותו לא חוקי ובמקרים רבים הוא בגדר פגיעה מינית לכל דבר – משמיד לחלוטין את שמה הטוב של כל דמות המופיעה בו, בלי שניתן לבטל את הפגיעה או לאתר את מקור הסרטון המזויף.

דוגמה בולטת אחרת של דיפ-פייק היא הנסיכה הבריטית קייט מידלטון, שמאז ינואר הפסיקה להיחשף בציבור באופן שעורר דאגה רבה לשלומה. בחודשיים האחרונים פורסמו תמונות שלה (שתי תמונות פפראצי ותמונת יום האם עם ילדיה), אלא שברחבי הרשת גילו חיש מהר שהתמונות מפוברקות. בלית ברירה פירסמה הנסיכה סרטון ובו הודיעה לציבור שהיא עוברת טיפולים נגד סרטן. גם אז ניתחו גולשים רבים את הסרטון מכל זווית אפשרית, ולא הצליחו להוכיח או להפריך אם מדובר בזיוף או בסרטון מקורי. היו שטענו שהטבעת שלה נעלמה בחלק מהתמונות, ששערה והרקע מאחוריה לא נעו, ושפתיה לא זזו בטבעיות.

הסכנה האמיתית טמונה בחוסר היכולת להבחין בין מציאות לרמאות, ואובדן אמון מוחלט בתכני וידאו, המתפרסמים ברחבי הרשת. אין ספק שפוליטיקאים ומנהלי הקמפיינים שלהם כבר מנסים לנצל את הטכנולוגיה לטובתם, ולא ירחק היום שבו הם יוכלו להכחיש בקלות סרטונים בכיכובם בטענה שהם דיפ-פייק, בלי יכולת להוכיח או להפריך זאת. כך למשל הנשיא ביידן הוקלט בשיחות טלפון שביצע למתפקדי המפלגה הדמוקרטית במדינת ניו המפשייר, שבהן הפציר בהם לא להגיע להצבעה בבחירות המוקדמות. כמובן שהשיחות היו פייק לחלוטין.

גם אנשי מטה טראמפ עשו ככל הנראה שימוש בתמונות דיפ-פייק שלו עם מצביעים שחורים, כדי לעודד את התמיכה במגזר הזה, הנוטה היסטורית לצד הדמוקרטי. ואף ראש עיריית ניו יורק אריק אדאמס הודה, שהשתמש בטכנולוגיה כדי לייצר שיחות טלפון לתושבי ניו יורק בשורת נושאים, בחלקן אפילו דיבר בשפות זרות.

הסנאטור האמריקאי מרקו רוביו היטיב לבטא את החשש מן התופעות הללו, כאשר טען שבעידן הרשתות החברתיות אנשים ממהרים להסיק מסקנות בהסתמך על שברירי מידע שהם נחשפים אליהם; השימוש בטכנולוגיית דיפ-פייק יוכל בקלות לשרת הטיית בחירות, מפני שחשיפת התרמית תדרוש משאבים וזמן רב, ויהיה מאוחר מדי לתקן את תוצאותיהן.

גם המפלגה הקומוניסטית הסינית ממנפת את הטכנולוגיה כדי לתמרן נראטיבים במדיה החברתית, דבר המהווה איום משמעותי על תהליכים דמוקרטיים ושלמות המידע. בהכוונת הנשיא שי ג’ינפינג המפלגה יכולה לייצר תוכן מאוד משכנע, המאפשר יצירת פרסונות לא אותנטיות והפצת מידע כוזב בקלות חסרת תקדים. השימוש האסטרטגי הזה מאפשר להם להשפיע על דעת הקהל, לזרוע מחלוקת ולערער את האמון במוסדות דמוקרטיים, הן מקומיים והן בינלאומיים. כך למשל סבלה קשות הנשיאה הנבחרת מחדש של טייוואן, צאי אינג-וון, מסרטוני דיפ-פייק שהופצו לטענתה על ידי המפלגה הקומוניסטית הסינית לפני הבחירות האחרונות.

סכנה לדיסאינפורמציה

כדי להתמודד עם איום הדיפ-פייק, חשפה זרוע פיתוח הטכנולוגיות של הפנטגון DARPA בשנים האחרונות את תוכניות ה-SemaFor וה-MediFor, שמטרתן לזהות תכנים שנוצרו על ידי מחשב, וכן לגרום לאלגוריתמים של הבינה המלאכותית להיות אמינים ושקופים יותר. ד”ר מאט טורק ממשרד החדשנות במידע של DARPA חשף, כי מטרת התוכניות לזהות ולמנוע תכני פייק העלולים להשפיע לרעה על הצופים ולעורר אי שקט, להרוס מוניטין, לפגוע בבחירות ולשבש היבטים חברתיים אחרים.

התוכנית מתמקדת בפיתוח אלגוריתמים של ניתוח סמנטי כדי להגביר את העומס על יוצרי תוכן מזויף, מה שיקשה עליהם לייצר תוכן שעבר מניפולציה לא מזוהה. אלגוריתמים אלה יאפשרו לאנליסטים להבדיל בין מניפולציות למטרות בידור לאלו המיועדות להשפעה זדונית.

נוסף על כך, SemaFor תפתח טכנולוגיות שיסייעו לאנליסטים אנושיים לסקור ולתעדף ביעילות נכסי מדיה שעברו מניפולציות, ולספק הסברים לממצאים שלהם. התוכנית תעריך ללא הרף את הטכנולוגיות שלה מול תרחישים מאתגרים כדי להבטיח יעילות נגד איומים שיתעוררו ברשת. לדבריו של טורק, DARPA משקיעה מאמצים בבינה המלאכותית עוד משנות ה-60, והיא מתכוונת להמשיך ולהיות נוכחת בחזית הטכנולוגיה גם בעתיד.

אבל באופן לא מפתיע, לזרועות אחרות של הממשל יש כוונות אחרות בנוגע לטכנולוגיה; פיקוד המבצעים המיוחדים של ארה”ב (SOCOM) שוקל שימוש בסרטונים מזויפים למען קמפיינים של תעמולה והונאה באינטרנט, כפי שנחשף במסמכי חוזה פדרליים שנבדקו על ידי The Intercept. במסמכים מצוין בפירוש שימוש בפריסת קמפיינים של דיסאינפורמציה מזויפים, לרבות פעולות השפעה, הונאה דיגיטלית ושיבוש תקשורת. מאמצים אלה כרוכים בשימוש בטכנולוגיות מתקדמות לאיסוף נתונים ממקורות שונים, לרבות מן המדיה החברתית. המסמכים מציעים גם כוונה לרגל אחרי הקהל המיועד באמצעות המכשירים המחוברים לאינטרנט כדי לשגר הודעות תעמולה בהתאם. בעוד שלפלטפורמות חברתיות גדולות יש כללים נגד זיופים כבדים, האינטרס של הפנטגון מעלה שאלות אתיות ומשפטיות כבדות משקל.

בשנה שעברה התריע פרופ’ יובל נוח הררי בפני העולם שהבינה המלאכותית תהפוך להיות חכמה מן האדם. בהיותה כזאת היא תוכל לייצר נראטיבים חדשים, ובכך להשפיע על התודעה האנושית באופן חסר תקדים. זאת הפעם הראשונה ש”ישות חוצנית”, כפי שהגדיר אותה, תוכל להשיג השפעה כזאת עד לרמה של כתיבת דתות חדשות, או מניפולציה המונית על ציבור רחב לבצע פעולות שאותן הוא לא מסוגל להבין.

האדם הבודד לא יוכל להבחין בין בן שיח אנושי ובין בוט בינה מלאכותית, אך בעוד ויכוח עם רובוט על נושאים שנויים במחלוקת הוא חסר טעם, לרובוט תהיה היכולת לפצח את הליך המחשבה של אותו אדם ולבצע עליו מניפולציה. באמצעות טכנולוגיית דיפ-פייק תהיה למכונה יכולת לייצר טקסט, ואז לגרום לכל אדם לומר אותו בקולו בלי להבחין בכך שהתוכן אינו אמיתי.

מציאות כזאת ככל הנראה תגיע בעשור הקרוב – והיא הסכנה האמיתית. בהינתן שאנחנו לא יכולים לסמוך יותר על האינפורמציה שמגיעה אלינו, אנו עלולים לאבד את יכולת החירות המחשבתית שלנו, ולחיות תחת איום של תודעה קולקטיבית חדשה שלא נהיה מסוגלים להבין.

תגובות

האימייל לא יוצג באתר. שדות החובה מסומנים *

[login_fail_messaging]