פיקסלים

הדעת שמאחורי הדאטה - היומן הטכנולוגי של יריב המר

האיחוד האירופאי מחוקק את חוק ה-AI: מבטיח אימוץ בינה מלאכותית אתי ואחראי

ההתקדמות המהירה של טכנולוגיית הבינה המלאכותית חוללה מהפכה בהיבטים שונים של חיינו, משירותי בריאות ועד תחבורה, מפיננסים ועד בידור. ככל שה-AI ממשיכה לחלחל לחברה שלנו, חיוני להקים מסגרת שתבטיח שימוש אתי ואחראי בה. כמענה לצורך זה הציג לאחרונה האיחוד האירופי (EU) את חוק הבינה המלאכותית; חקיקה מקיפה שמטרתה להסדיר מערכות בינה מלאכותית בתוך המדינות החברות בו. החוק שאושר עדיין נמצא בשלבי חקיקה בחלק ממוסדות האיחוד ולאחריהם יידרשו מדינות האיחוד ליישמו, כל אחת בדרכה.

החוק מכיל כמה נקודות חיוביות ומעניינות ומגדיר רשימה של יישומי AI שאסורים בהחלט לשימוש, ובכך משקף את המחויבות של האיחוד האירופי לקיים סטנדרטים אתיים בפריסת AI. חלק מן הפעילויות העיקריות האסורות כוללות שימוש במערכות בינה מלאכותיות המתמרנות את התנהגותם של אנשים כדי לנצל נקודות תורפה, יצירת מערכות בינה מלאכותית המאיימות על כבוד האדם, איסור מוחלט על מערכות דירוג חברתי המתבססות על נתונים שמנתחות מערכות AI ופריסה של מערכות בינה מלאכותית המשתמשות בנתונים ביומטריים למטרות מעקב, ללא הסכמה מתאימה. באמצעות איסור מפורש על שיטות אלה שואף חוק הבינה המלאכותית למנוע את הנזק הפוטנציאלי ואת ההתעללות העלולים לנבוע מטכנולוגיות AI שאינן מבוקרות.

אולם בכלכלה של היום כבר נעשה שימוש בבינה מלאכותית כדי לבצע את הפעולות הללו. כך, למשל, חברות היי-טק משתמשות במידע ביומטרי כדי להתאים לנו את הפרסומות, בנקים משתמשים בשיטות של דירוג אשראי כדי לאשר לנו הלוואות, מצלמות דרך פרוסות בכל פינת רחוב כדי לאתר מפגעים והרשומות הרפואיות שלנו משמשות לצורכי מחקר של חברות תרופות. לכן, קשה להאמין שממשלות ותאגידים יסכימו ואף יוכלו לעמוד בדרישות החוק. ספציפית בנוגע לשימוש בנתונים ביומטריים צוינו שלושה מקרים שבהם יותר השימוש – למטרות חיפוש אחר קורבנות פשע, למניעת פשע מסכן חיים או לזיהוי מבצעי עבירה לצורך הגשת תביעה. כלומר, רשויות אכיפת החוק בהחלט יוכלו להשתמש בזיהוי פנים או ביומטרי אחר בסיטואציות מסוימות, ולראיה התרחיש שבו משתמשת המשטרה בטכנולוגיה כמו NSO, כפי שקרה בישראל, בהחלט מותר במסגרת החוק.

מתוך הכרה בסיכונים הגבוהים הכרוכים בהפעלת מערכות AI מסוימות נוקט האיחוד האירופי צעדים יזומים כדי לאכוף תקנות מחמירות יותר. חוק הבינה המלאכותית מקטלג יישומי בינה מלאכותית לרמות סיכון שונות, בהתבסס על פגיעתן הפוטנציאלית בזכויות אדם ובבטיחות. מערכות בינה מלאכותית בסיכון גבוה, כגון אלה המשמשות תשתיות קריטיות כמו שירותי בריאות ואכיפת חוק, יהיו כפופות להערכות התאמה קפדניות, לדרישות שקיפות ולפיקוח אנושי. גישה זו שואפת לאזן בין קידום חדשנות לבין הגנה על אזרחים ולהבטיח שמערכות בינה מלאכותית שלהן השפעה חברתית משמעותית עומדות בהנחיות מחמירות. אך כדי לפקח על מערכות מסוג זה יהיה על תאגידים לחשוף בפני האיחוד את כל מקורות המידע שלהם ואת הלוגיקה שעל פיה הם פועלים, ובכך ייווצרו בעיות מסוג חדש – חסמי כניסה גבוהים לתעשייה המשמרים את כוחם של התאגידים הגדולים שהיו ראשונים, וגם שליטה חסרת תקדים של ממשל בתעשייה.

בעוד חוק הבינה המלאכותית של האיחוד האירופי מייצג צעד משמעותי לקראת התמודדות עם האתגרים האתיים והאסדרתיים (רגולטוריים) שמציבה הבינה המלאכותית, הוא גם מתמודד עם ביקורת מגורמים שונים. יש הטוענים כי החקיקה מכבידה יתר על המידה ועלולה לחנוק חדשנות ולהטיל הגבלות מיותרות על פיתוח הבינה המלאכותית. המבקרים גם טוענים שההתמקדות במערכות AI ספציפיות, בעלות סיכון גבוה, מתעלמת מן הסיכונים הפוטנציאליים הכרוכים ביישומים פחות ברורים. הם טוענים כי דרושה אסדרה (רגולציה) גמישה ומסתגלת יותר, כזו שתתחשב באופי המתפתח של AI ותאפשר הערכות והתאמות מתמשכות.

לסיכום, חוק הבינה המלאכותית שהציג האיחוד האירופי משקף מאמץ משמעותי להבטיח אימוץ אתי ואחראי של טכנולוגיות בינה מלאכותית. עם זאת, חשוב לוודא כי כדי להתמודד עם החברות הגדולות אסדרת תחום הבינה המלאכותית אינה מציבה חסמי תחרות בפני חברות חדשניות, וכן חשוב לוודא כי החוק אינו מסדיר את המסגרת החוקית להפעלת בינה מלאכותית בידי האח הגדול.

עידן הבינה המלאכותית של נתניהו

ראש הממשלה בנימין נתניהו יצא בקריאה נרגשת ברשתות החברתיות בנוגע לתפקידה של ישראל בעידן הבינה המלאכותית: “הדברים משתנים בקצב מסחרר וישראל חייבת לגבש מדיניות לאומית בנושא הזה”, טען נתניהו כששוחח עם מנכ”ל טסלה וטוויטר אילון מאסק, שיצא בקריאות להשהיית פיתוח הבינה המלאכותית עד להפעלת אסדרה בתחום. מאסק שוחח עם נתניהו על הצורך של הממשלות להבין את ההזדמנויות ואת הסכנות שבפיתוח הבינה המלאכותית. לטענת נתניהו, מאסק וגם סם אלטמן, מנכ”ל OpenAI שביקר בישראל, אמרו לו שישראל יכולה להפוך גורם משמעותי בתחום. נתניהו הצהיר שבימים הקרובים יכנס צוותי חשיבה כדי לדון במדיניות הלאומית בנושא בינה מלאכותית בתחום האזרחי והביטחוני. “כפי שהפכנו את ישראל למעצמה עולמית בתחום הסייבר, כך נעשה גם בבינה המלאכותית”, סיים נתניהו ובכך יישר קו עם ראש הממשלה הקודם, נפתלי בנט, שפרסם גילוי דעת על הצורך של ישראל להפוך למעצמת בינה מלאכותית בבריאות, בביטחון ובעוד שורת נושאים.

אבל חשוב לזכור כי ישראל כבר התנהלה בעבר באופן שנוי במחלוקת, למשל בתחום הביוטק, כאשר האסדרה לא מנעה את הניסוי הגדול שביצעה חברת תרופות באזרחי ישראל בעת משבר הקורונה, לא הפרידה בין תאגידים לבין גורמי ממשל, אפשרה שימוש בטכנולוגיית מעקב כדי לשלוט באזרחים והסירה את כל שומרי הסף, כגון ועדת הלסינקי העליונה, שתפקידה לוודא שניסויים בבני אדם מתבצעים בבטיחות ובהסכמה מדעת. המידע הרפואי הפרטי שלנו נכנס למאגרי מידע של קופות חולים, ובימים אלה מוקם פסיפס מאגר המידע הגנטי הלאומי של אזרחי ישראל שיונגש לחברות התרופות כשי, והן יוכלו לערוך מחקרים בהתבסס על המידע שנאגר בו. האמון כי הממשלה תדע להגן על אזרחי ישראל מפני תרחישים שכאלה בעידן הבינה המלאכותית אינו גדול.

מכונת הפרופגנדה האולטימטיבית לפי פרופ’ יובל נח הררי

האם הכתבה הזאת נכתבה באמצעות בינה מלאכותית? הייתכן שבינה מלאכותית עומדת מאחורי הרעיונות המובאים בכתבה? אני יכול להבטיח לכם שאדם עומד מאחוריהם, אבל כיצד אתם יכולים להיות בטוחים? את הסוגיה הזאת העלה בחודשים האחרונים פרופ’ יובל נח הררי.

נח הררי חתם לאחרונה עם אילון מאסק ועם עוד שורה של מדענים על מכתב הקורא לעצירה זמנית של פיתוח הבינה המלאכותית, עד לאסדרת התחום. נח הררי נוהג לנאום בפורום הכלכלי העולמי וברשתות אף פורסמו שמועות שהוא השתתף בוועידת בילדרברג האחרונה, שעסקה בבינה מלאכותית. הביקורת היא על כך שהררי מדבר בשני קולות – מצד אחד מתריע מפני הטכנולוגיה, ומצד שני מייעץ לבעלי הכוח כיצד אפשר תיאורטית לנצל לרעה את הטכנולוגיה.

בנאומים ובראיונות האחרונים חוזר נח הררי ומתריע מפני הסיכונים הנשקפים מבינה מלאכותית (AI). התובנות של הררי מתעמקות מעבר לפחדים המקובלים מיכולת החישה והדומיננטיות הפיזית של AI, ושופכות אור על הסכנות הפוטנציאליות העומדות בפנינו. ככל שה-AI מתקדמת בקצב חסר תקדים, ההשפעה שלה על החברה שלנו, על הפוליטיקה ועל הכלכלה הולכת ומתבהרת. בעוד הבינה המלאכותית מחזיקה ביכולת לסייע בהתגברות על האתגרים העומדים בפני האנושות, קיים חשש משמעותי שהיא עלולה להחריף את המשברים הגאו-פוליטיים. לפיכך, את הפיתוח ואת הפריסה האחראית של AI יש ללוות בהערכה יסודית של ההשפעות הכוללות שלה.

ההתפתחות המהירה של כלי AI מביאה לפיתוח יכולות בלתי צפויות הדורשות את תשומת ליבנו. הררי מדגיש את הצורך בזהירות כיוון שפיתוח בינה מלאכותית גובר על ההבנה המלאה שלנו בנוגע להשפעות הפוטנציאליות שלה. כדי לנווט בנוף הלא ודאי הזה מקדם נח הררי אסדרה פרואקטיבית המבטיחה שה-AI מתקדמת בהתאם לסטנדרטים האתיים ושומרת על רווחת החברה. אחת האסדרות שהציע נח הררי היא החובה שתחול על הבינה המלאכותית להזדהות כלא אנושית בפני אנשים שאיתם היא תבוא במגע, שכן בקרוב מאוד לא נוכל להבדיל אם אנו מדברים עם מכונה או עם אדם.

ואכן, אחד הסיכונים העמוקים ביותר טמון בשליטה הגוברת של AI בשפה. עם התחזקות יכולת זו מחזיקה הבינה המלאכותית בכוח לתמרן ולייצר תוכן, ולפיכך מעוררת חששות בנוגע לשלמות המידע ולשחיקת החשיבה הביקורתית. באמצעות יצירת קשרים עמוקים ואינטימיים עם בני אדם יכולה הבינה המלאכותית להשפיע על דעות ועל התנהגויות, ובכך לאיים באופן חמור על המרקם של החברה האנושית ועל מהות הדמוקרטיה. יתרה מכך, ההשפעה של AI משתרעת הרבה מעבר לאינטראקציות אינדיווידואליות. היא חודרת לפוליטיקה, לכלכלה, לדת ולתרבות ומפעילה שליטה על היבטים מרכזיים אלה של הקיום האנושי. הודות לשליטה בשפה ובתרבות יש לבינה מלאכותית פוטנציאל לעצב מחדש את מהלך ההיסטוריה האנושית ולפתח עידן חדש שבו הנרטיבים האנושיים אינם עוד הכוח המניע המרכזי. יובל נח הררי אף עורר סערה גדולה כשהעיר שהבינה המלאכותית עלולה לכתוב תנ”ך חדש ולבסס סביבו דת חדשה, וכי אנשים מסוימים יושפעו מאוד מן האידיאולוגיה החדשה ומרבית המאמינים כלל לא ידעו שבינה מלאכותית עומדת מאחוריה.

ואולי המדאיגה ביותר היא האזהרה של הררי מפני היכולת של הבינה המלאכותית ליצור עולם מתוזמר של אשליות. באמצעות טכניקות מניפולציה מתוחכמות המשתמשות בשפה ובסיפור סיפורים, יכולה בינה מלאכותית לעצב מוחות ולעוות את המציאות. איננו צריכים להביט רחוק כדי לראות את הכוח של אלגוריתמי AI הנפרסים בפלטפורמות מדיה חברתית, אוצרים תוכן ומטפחים בועות מידע מותאמות אישית המפלגות חברות ומערערות ערכים דמוקרטיים.

לצד הכרה בפוטנציאל החיובי של AI מדגיש נוח הררי את הצורך הדחוף באסדרה מקיפה. קווים מנחים ברורים ומסגרות אתיות הם חשובים ביותר למניעת שימוש לרעה בטכנולוגיות AI ולשמירה על רווחת האנושות. יצירת האיזון העדין בין חדשנות לאחריות תעצב את מסלול הבינה המלאכותית ותבטיח שהיא משרתת את האינטרסים של האנושות בטווח הארוך. השאלה הגדולה היא אם מקבלי ההחלטות מקשיבים לאזהרות של נח הררי, ואם הם אכן שואבים מהן השראה כדי לייצר מנגנוני שליטה חדשים.

אמזון מפעילה דירוג חברתי

בתקרית שהתרחשה לאחרונה בבולטימור חווה אדם את ההשפעות המדאיגות של האשמת שווא, ושפך אור על הסכנות הפוטנציאליות של מעקב ושל שליטה בעולמנו המתחבר יותר ויותר. ברנדון ג’קסון הוא עובד מיקרוסופט ומשתמש בית חכם. מכשיריו המחוברים לאמזון לא הגיבו לחלוטין במשך כמעט שבוע, לאחר שנהג משלוחים של אמזון האשים אותו בגזענות באמצעות פעמון הדלת שלו.

החוויה הקשה של ג’קסון הותירה אותו עם בית מלא מכשירים שאינם מגיבים ועם מספר רב של שאלות ללא מענה. אף על פי שסיפק הוכחות המפריכות את הטענה לגזענות, שכן הוא כלל לא נכח בביתו והמענה בפעמון הדלת היה אוטומטי וסטנדרטי, חשבון האמזון שלו נסגר והותיר אותו ללא יכולת לגשת ולשלוט בבית החכם שלו. האירוע הדגיש את הכוח ואת השליטה המשמעותיים שחברות יכולות להפעיל על מכשירי המשתמשים ואת הפגיעה הפוטנציאלית של פעולות מעין אלה.

התקרית המטרידה הזאת מקבילה למערכת דירוג האשראי החברתי של סין, שבה פעולות והתנהגות של אזרחים מנוטרות ומוקצה להם ציון הקובע את הגישה שלהם לשירותים ולהרשאות שונות. המערכת של סין כוללת רובוטים משטרתיים המצוידים במצלמות זיהוי פנים, המזהות אנשים שזכו לציוני אשראי חברתי נמוכים ומתריעות בפני הרשויות אם הם נמצאים באזורים שאינם מורשים. מתנגדים המבקרים את הממשלה באינטרנט יכולים להתמודד עם הגבלות חמורות, כולל הגבלות נסיעה, לינה, מקומות בילוי ואף על פעילויות שגרתיות, כמו שימוש במכונות אוטומטיות.

המצב במערב אולי לא הסלים לרמה הנצפית בסין, ובכל זאת האירוע שחווה ברנדון ג’קסון מעורר חששות בנוגע לשחיקה הפוטנציאלית של הפרטיות ולסיכונים הכרוכים בהענקת שליטה נרחבת על חיינו האישיים לחברות. הוא מדגיש את הצורך בשיקול זהיר בעת אימוץ טכנולוגיות בית חכם וחיבור המכשירים שלנו לשרתים חיצוניים. פרטיות דורשת זהירות מפני הסתמכות יתר על טכנולוגיה שאפשר לתמרן בקלות, לפרש באופן שגוי ולהוביל לתוצאות לא הוגנות. מקרים כמו המקרה של ג’קסון מזכירים לנו את החשיבות שבשמירת הריבונות על הבתים ועל הנתונים האישיים שלנו.

יתרה מכך, ככל שההתפתחויות בטכנולוגיות המעקב ממשיכות לטשטש את הגבולות בין המרחבים הציבוריים לפרטיים, ההשפעות של מערכות האשראי החברתי הופכות רלוונטיות יותר. בעוד המערכת של סין מתמקדת בציות פוליטי ובקונפורמיות חברתית, הפוטנציאל ליישום מערכות דומות במערב מעורר חששות בנוגע לפגיעה הפוטנציאלית בחירויות האזרח ולשיפוט שרירותי שעלול להכתיב גישה לשירותים חיוניים. ככל שאנו מנווטים לעתיד שבו משחקת הטכנולוגיה תפקיד דומיננטי יותר ויותר, חיוני יותר למצוא איזון בין נוחות לפרטיות. עלינו להישאר ערניים באימוץ המכשירים המחוברים, ולהתחשב בסיכונים ובהשפעות הפוטנציאליות הנובעות ממתן אמון בגורמים חיצוניים.

בסופו של דבר, תקריות כמו שחווה ברנדון ג’קסון הן קריאת השכמה המזכירות לנו להעריך בביקורתיות את מאזן הכוחות ואת השליטה בחיינו, המחוברים זה לזה. הכרחי לתת עדיפות להגנה על הפרטיות ולאוטונומיה האישית שלנו, הן בהווה והן מול התפתחויות עתידיות פוטנציאליות.

ממשלת הביג דאטה

בעוד אנו יוזמים שימוש בטלפונים ובאפליקציות, אנחנו מאשרים ביודעין לחברות גישה למידע אישי, פרטי ורגיש שלנו. אנחנו מעדיפים להשלים עם אובדן הפרטיות לטובת שירות טוב יותר וזול יותר מתוך אמון באותם תאגידים, שלא ישתפו את המידע שלנו עם גורמי צד שלישי ושלא יפעלו באופן לא אתי כנגד הלקוחות שלהם. והנה, גילויים אחרונים הביאו לידי ביטוי פרקטיקה מטרידה: ממשלת ארה”ב רכשה מידע אישי על אזרחים מִספקי מידע (Brokers) הרוכשים מידע פרטי על משתמשים באפליקציות שונות, מקימים מאגרי מידע אדירי מימדים על האוכלוסייה ומעמידים אותו למכירה למרבה במחיר. תמלילים חדשים חושפים כיצד סוכנויות מודיעין, כולל ה-NSA, צברו כמויות אדירות של מידע אישי על אזרחים אמריקאים באמצעות הנתונים שנרכשו. בעוד הממשלה טוענת שמידע זה חיוני לביטחון הלאומי, מבקרים מביעים דאגה בנוגע להפרת פרטיות ולאפשרות של שימוש לרעה בנתונים כאלה.

התמלילים חושפים שסוכנויות הביון האמריקאיות, לצד גופי אכיפת החוק הצבאיים והפדרליים, קנו ומכרו באופן פעיל מידע אישי על אמריקאים. ברוקרים מספקים אספקה ​​מתמדת של נתונים אישיים ומאפשרים לסוכנויות אלו לצבור פרופילים נרחבים על אנשים, תוך פיקוח או הנחיות מועטים. האיסוף הבלתי מוגבל של נתונים אישיים עורר דאגה בקרב תומכי הפרטיות וארגוני חירויות האזרח. המבקרים חוששים שגישה בלתי מבוקרת זו לחייהם האישיים של אזרחים עלולה להוביל להפרת פרטיות, לפגיעה במוניטין, למצוקה רגשית ואף לסיכון אנשים. הם טוענים שרמת חדירה זו עלולה להפר מסורות חוקתיות וציפיות חברתיות.

כולנו זוכרים את החשיפות של ג’וליאן אסאנג’, מייסד ויקיליקס שחשף מעקבים ממשלתיים על אזרחים אמריקנים. התמלילים מזכירים לנו את האיזון העדין בין ביטחון לאומי לפרטיות הפרט. בעוד שממשלות טוענות כי מעקב לשם ביטחון הציבור הוא מוצדק, המבקרים טוענים שמעקב בלתי מוגבל פוגע בזכויות היסוד.

התמלילים מדגישים גם את הצורך בפיקוח ממשלתי ותאגידי כאחד. הכמות העצומה של הנתונים האישיים שאספו ישויות כמו גוגל ואמזון מדאיגה כמו שיטות הממשלה. הצטברות נתונים מעין אלה והאפשרות של שני הגופים להשתמש בו לרעה מעוררים דאגה רבה. התמלילים מאתגרים את התפיסה המקובלת, לפיה אזרחים אינם צריכים לדאוג בנוגע לפיקוח ממשלתי אם אין להם מה להסתיר. בית המשפט העליון בארה”ב כבר קבע תקדימים שלפיהם מידע אישי באינטרנט עומד תחת התיקון הרביעי לחוקה בדבר צבירת ראיות כנגד אזרחים, ושהזכות לפרטיות היא היבט מכריע בחיים בחברה חופשית. קיים חשש כבד לניצול פוטנציאלי של מידע אישי למטרות פוליטיות או להתמקדות בקולות מתנגדים.

הגיע הזמן להסדיר אחת ולתמיד את זכויות האזרח לפרטיות בעידן המידע והאינטרנט, ויש להתקין תקנות ופיקוח מוגברים על גורמי ממשל ועל תאגידים כדי להגן על זכויות אלו. יש להעניק לאזרחים את זכות הבעלות על הנתונים שלהם ונדרש להגביר את חובת ההסכמה כדי שתאגידים יוכלו לבצע איסוף ושימוש במידע אישי. איזון עדין בין צורכי ביטחון להגנה על זכויות הפרטיות של האזרחים חיוני כדי לשמר את העקרונות שעליהם בנויות חברות דמוקרטיות.

דירוג חברתי באוקראינה: מדינה בטלפון” בחסות אמריקאית

פריסת אפליקציית DiiA סומנה כמהפכה הדיגיטלית של אוקראינה בצל המלחמה. אפליקציה חדשנית זו – שיתוף פעולה בין גוגל, ויזה, USAID וזרוע הממשל לסיוע למדינות זרות – מציעה לאזרחי אוקראינה מגוון שירותים דיגיטליים. בחודש שעבר נחשפה רשמית האפליקציה בכנס שהתקיים בוושינגטון, בהשתתפות נאום מרחוק של הנשיא זלנסקי, גורמי ממשל והתאגידים המעורבים. “מדינה בטלפון”, קרא לאפליקציה זלנסקי. האפליקציה הפכה במהירות חיונית למיליוני אוקראינים, והיא מספקת גישה יעילה ונוחה לשירותים ממשלתיים, לאחסון מסמכים מאובטח, לממשל אלקטרוני ולתשלומים מקוונים. חיי היום-יום של האוקראינים השתנו אם רצו בכך או לא.

עם זאת, עלו חששות לגיטימיים בנוגע לפרטיות ולמעקב. המבקרים טוענים כי איסוף הנתונים הנרחב שמבצעות ממשלות ארה”ב ואוקראינה מעורר שאלות מטרידות. חוסר השקיפות והפיקוח סביב תהליכי הטיפול בנתונים של האפליקציה העצימו את החששות הללו. אגב, בעבר כבר השתמשה הממשלה האוקראינית באפליקציה כדי להעניק מענק מלחמה לאזרחים, בתנאי שלדרכון החיסונים שלהם באפליקציה היה סטטוס ירוק.

החששות נוגעים להפיכת האפליקציה לכלי מעקב פולשני בידי ממשלת אוקראינה, המאפשר לה לפקח על הפעילויות, על התקשורת ועל המיקום של אזרחיה. למשל, מעודדת האפליקציה את האזרחים להלשין לממשל על שכניהם בחשד לביטויים פרו-רוסיים. נראה שאוקראינה תהפוך מדינת מעקב שאזרחיה יהיו מפוקחים כל הזמן והממשלה תעקוב אחר כל פעולה או תקשורת שתבוצע באפליקציה. המבקרים טוענים כי היעדר תקנות ברורות ופיקוח על השימוש ב-DiiA פותח פתח לשימוש לרעה. ללא אמצעי הגנה מתאימים קיים סיכון שהאפליקציה תוכל לשמש להתמקדות במתנגדים פוליטיים, לדיכוי חופש הביטוי או להפרת זכויותיהם של אנשים.

החשש ממעורבות ארה”ב בפריסת אפליקציית DiiA סובב סביב יכולת המעקב של האפליקציה והפוטנציאל לפגיעה בפרטיות. כאשר ממשלה זרה, במקרה זה ארה”ב, מעורבת בפיתוח או בפריסה של אפליקציית מעקב המשמשת מדינה אחרת, עולות שאלות בנוגע לאבטחת מידע, לבקרה ולפוטנציאל גישה שאינה מורשית. החשש הוא שממשלת ארה”ב עשויה לקבל דרך האפליקציה גישה למידע אישי רגיש ולתקשורת של אזרחים אוקראינים ובכך לפגוע בפרטיותם, להשתמש לרעה בנתונים לצורך מעקב ולשלילת זכויות וחירויות אזרחי אוקראינה. המבקרים טוענים כי מעורבות של ממשלה זרה בפרויקט תשתית דיגיטלית רגיש כל כך עלולה לסכן את הריבונות ואת האוטונומיה של המדינה המדוברת וליצור תלות ופגיעות שאפשר יהיה לנצל למטרות פוליטיות או אסטרטגיות.

מצד אחד, אפליקציית DiiA משקפת את שאיפותיה של אוקראינה להתקדם לקראת טרנספורמציה דיגיטלית. מצד שני, אי אפשר להתעלם מן החשש לפגיעה בחופש הפרט ולשלטון אבסולוטי של ממשלות המערב באזרחים של מדינות שאינן יציבות.

הנה הם באים – דרכוני החיסונים

בעקבות מגפת COVID-19 זכה הרעיון של דרכוני חיסון לתשומת לב כאמצעי להשבת נסיעות בין-לאומיות ולהקלה על ההגבלות. עם זאת, ככל שמתגבשות תוכניות להפעלה גלובלית, גוברים החששות בנוגע להשפעות ולסיכונים הקשורים למערכת כזו.

המבקרים טוענים כי הענקת סמכות מוגברת לארגונים בין-לאומיים כמו ארגון הבריאות העולמי (WHO) מעלה חשש בנוגע למאבקי כוח ולהשפעות שאינן מכוונות. חברת הקונגרס האמריקאי מישל באכמן מזהירה שמערכת השליטה הגלובלית של WHO תעניק לו כוח בלתי מוגבל על כל אדם בעולם. ה-EU מקדם דרכון חיסונים גלובלי הפועל באמצעות קוד QR המותקן על גבי הטלפון, והוא יהיה הבסיס למערכת דרכון החיסונים של האו”ם. לטענת באכמן מי שלא יציית לארגון הבריאות העולמי לא יוכל לנוע בחופשיות בעולם, והיא מוטרדת מאוד מן ההשתקה של הנושא ברשתות, המונעת כל דיון ציבורי בדבר הטמעת המערכות האלה.

כפייה ושחיקת חירויות הפרט הן הדאגות העיקריות הקשורות לדרכוני החיסון. במהלך המגפה יושמו מנדטים וצעדים נוקשים שהובילו להדרה ולאפליה, ונראה כי לא נלמד כל לקח. ד”ר ג’ון קמפבל מעביר ביקורת על המדיניות הדיגיטלית של ארגון הבריאות העולמי, המתעדפת את מנגנוני השליטה על פני טיפול בבעיות רפואיות אמיתיות כמו מלריה, תזונה, עישון וזיהום אוויר. נוסף לכך, הוא מעלה חששות כבדים בנוגע לשילוב של בינה מלאכותית בדרכוני החיסונים שאף יגביר את כוחם של מנגנוני השליטה.

גם בישראל קיימות מזימות להקמת דרכון חיסונים דיגיטלי. אנו יודעים שישראל מנסה לקדם את עצמה כמובילה בבריאות דיגיטלית – שם מכובס לתעודת זהות דיגיטלית המחוברת לתיק הרפואי – ולכן תהיה מחויבת ליוזמות ארגון הבריאות העולמי. השבוע בכנסת נערך דיון במשרד הבריאות שבו מנהלת בריאות הציבור של קופת חולים מכבי, רחל פיש, חזרה על בקשתם להקים פנקס חיסונים דיגיטלי בישראל כדי לנטר ביתר קלות את מצב ההתחסנות של אזרחי ישראל. יו”ר הוועדה, אריאל בוסו מש”ס, ניסה להסית את הדיון לכיוון פתרון אחר, כגון חודש מודעות לחיסונים, אך נציגת מכבי חזרה על בקשתם להקמת הפנקס הדיגיטלי.

כתבות שאולי יעניינו אותך

תגובות

האימייל לא יוצג באתר. שדות החובה מסומנים *

[login_fail_messaging]