התנגשות הטיטאנים
להתקדמות המטאורית בפיתוח רובוטיקה אנושית יש השלכות אתיות וחברתיות מדאיגות. איך לדוגמה נתמודד עם בני אדם, שיפתחו קשר רגשי עם רובוט?
![](https://bereshit-news.co.il/wp-content/uploads/2024/12/A_dramatic_futuristic_background_depicting_a_clash-1170x669.jpeg)
מאסק נגד אלטמן: התנגשות הטיטאנים
לאחרונה חידש אילון מאסק את התביעה שלו נגד סם אלטמן, מייסד ומנכ”ל OpenAI, לאחר שמשך את תביעתו הקודמת לפני כחצי שנה. לטענתו הוא צורף ב-2015 ב”מרמה” לייסוד החברה, על ידי אלטמן והנשיא הנוכחי שלה גרג ברוקמן.
הבינה המלאכותית (AI) עומדת להשתלט על חיינו, והמאבק כרגע הוא בין שורת הרווח של תאגידים לבין התועלת לאנושות. התביעה של מאסק, אם כך, אינה רק מאבק משפטי – היא למעשה עימות בין עקרונות, אתיקה ודילמות מוסריות של תעשיית הבינה המלאכותית המתפתחת במהירות. בעוד שפרטי התביעה עשויים להיראות כסוגיות משעממות של ממשל תאגידי וסכסוכים חוזיים, הסיפור הבסיסי רחב יותר: כיצד צריכים המנהיגים המעצבים את עתיד האנושות לפתור קונפליקטים, כאשר החזון שלהם לעתיד מתפצל? שהרי התביעה אינה רק התנגשות בין אגו או אינטרסים עסקיים; היא מעלה שאלות דחופות לגבי קבלת החלטות אתיות בתעשיית הבינה המלאכותית.
מאסק שסייע בהקמת OpenAI, הביע לא אחת בפומבי הסתייגות מ-OpenAI כאשר מתח ביקורת על המעבר שלה מארגון ללא מטרות רווח למיזם למטרות רווח, והטיל ספק בשקיפותו ובהתאמה שלו לאידיאלים של מייסדיו. אלטמן מצדו, כינה את התביעה “עצובה מאוד” והסלמה מיותרת.
התביעה שהגיש מאסק מתבססת על פי הדיווחים על ארבע טענות עיקריות: ראשית, המעבר של OpenAI ממלכ”ר לישות למטרת רווח מערער את המטרה הבסיסית של יצירת בינה מלאכותית לטובת הציבור, במקום לתת עדיפות לאינטרסים מסחריים. שנית, טוען מאסק, OpenAI לא היתה שקופה בפעילותה, בעיקר בשותפות שלה עם מייקרוסופט, שלדעתו עשויה להוביל לריכוז כוח בידי תאגידים בודדים. הטיעון השלישי מתמקד בהפרת אמון, כי אלטמן משקיע במספר רב של פלטפורמות ומבצע שיתופי פעולה עסקיים בין OpenAI להשקעותיו האחרות כדוגמת Reddit ו-Helion, חברת ההיתוך הגרעיני שלו, וכך הוא מנפח את שוויין ומתעשר באופן אישי. לבסוף טוען מאסק שהמסחור המהיר וההתקדמות הקניינית של OpenAI – במיוחד עם מערכות כמו ChatGPT – לא מתאימה לאמצעי ההגנה האתיים הדרושים, כדי למנוע שימוש לרעה בטכנולוגיות AI חזקות. כל הטענות הללו מדגישות את התסכול העמוק של מאסק ממה שהוא תופס כסטייה מהחזון המייסד של OpenAI, ושחיקה באחריות שלה כלפי הציבור.
![](https://bereshit-news.co.il/wp-content/uploads/2024/12/9.jpg)
ואכן, כאשר OpenAI נוסדה, מעמדה ללא מטרות רווח שיקף מחויבות מוסרית נועזת; הבטחה שהבינה המלאכותית תשרת את טובת האנושות ולא רווחים פרטיים. הביקורת של מאסק על כך ש-OpenAI סטתה מהאתוס הזה משקפת מתח שאיתו מתמודדים ארגונים רבים כשהם מתרחבים: האם אידיאלים של אלטרואיזם יכולים לשרוד בלחצים של רווחיות, בתחרות ובדרישות של הון סיכון? לשיטתו של אלטמן ההפיכה למודל רווחי היתה הכרחית כדי לממן את הסכום העצום שנדרש לאימון מודלים חדישים כמו GPT-4. אבל ההחלטה הזו מדגימה פשרה מוסרית: האם יש להתפשר על עקרונות כדי להשיג מטרות שאפתניות, או שארגונים צריכים להישאר איתנים, גם במחיר של הגבלת התפתחותם הפוטנציאלית?
בחירתו של מאסק לתבוע את אלטמן במקום לשתף אתו פעולה או להתחרות בו בשוק הטכנולוגיה, גררה ביקורת מכמה כיוונים; מאבקים משפטיים בין דמויות משפיעות בטכנולוגיה מסתכנים לעתים קרובות בהסחת דעת שמרוקנת משאבים ופוגעת במוניטין. אלטמן עצמו יצא בביקורת נוקבת כלפיו, שלפיה במקום להתחרות בשוק באמצעות חברת הבינה המלאכותית שלו xAI, הוא בחר בזירה המשפטית.
גם מאסק וגם אלטמן מאוחדים בשאיפתם המשותפת לעצב מחדש את עתידה של האנושות, אך הגישה שלהם שונה; מאסק הביע לעתים קרובות את חששו מהסיכון – עד כדי איום על קיום האנושות עצמה – של פיתוח הבינה המלאכותית ואילו אלטמן מצדו הבטיח שהוא מוביל פיתוח AI אחראי, תוך שימת דגש על פרוטוקול בטיחות ושקיפות במחקרה.
עם זאת, כאמור, העלייה המטאורית של הארגון והשותפות שלו עם ענקיות טכנולוגיה כמו מייקרוסופט אכן מעוררות חשש שהוא לא מספיק נאמן למשימתו המקורית. גם פרישתם מהחברה של בעלי תפקידים בכירים כמו איליה זוסקובר, סמנכ”ל הטכנולוגיות המיתולוגי שהיה מעורב בניסיון להדיח את אלטמן בשל פרשיות פיתוח לא אתי, מעלות ספקות לגבי טענותיו. מה שמוסיף למורכבות של הסכסוך הוא האופי האישי העמוק שלו; מאסק ואלטמן היו פעם מאוחדים בחלום משותף, אבל מערכת היחסים ביניהם הידרדרה לסדרה של האשמות ציבוריות. ההצהרה של אלטמן כי הוא עדיין מרגיש “אסיר תודה” למאסק – למרות הניכור ביניהם – חושפת את המחיר הרגשי של נפילתם.
הדלפת Sora: ניצול אמנותי
בחודשים האחרונים גוברת התחרות על השלב הבא בעולם ה-AI – יצירת וידאו מטקסט חופשי. חברות כמו Runway, Kling, Luma ועוד רבות, כולל לייטריקס הישראלית, משחררות מודלים שמסוגלים להפוך טקסט ותמונות לווידאו איכותי, ולפני ימים ספורים הגיעה ההשקה הרשמית של פלטפורמת הווידאו של OpenAI, “סורה” (Sora), שעליה הודיעה החברה בפברואר האחרון. מדובר במודל חדשני ליצירת וידאו, שנועד לאפשר לאמנים מקצועיים, יוצרי סרטים ומעצבים לייצר תוכן מורכב ואיכותי מבחינה ויזואלית. עם זאת, הטכנולוגיה שלו עדיין בשלבי בדיקה.
ההדלפה האחרונה של סורה עוררה ויכוח משמעותי על אתיקה, קניין רוחני וניצול עבודה יצירתית. הוא הודלף דרך חשבון Hugging Face לא מורשה, שכותרתו PR Puppet Sora, על ידי קבוצה של משתמשים שקיבלו גישה לטכנולוגיה כדי לספק משוב, ואלה פרסמו סרטונים ופרטים על יכולותיה, יחד עם מניפסט המבקר את הגישה של OpenAI.
הסרטונים שהודלפו הציגו את הפוטנציאל המרשים של סורה, עם יצירות וידאו איכותיות ועקביות, כולל אישה שהולכת ברחובות יפן וסצנות מלאות דמיון כמו דובי קוטב ששותים קוקה קולה. בעוד שהטכנולוגיה נראתה כפריצת דרך ביצירת תוכן מונע בינה מלאכותית, ההדלפות חשפו גם כמה בעיות טכניות כמו הבהוב, טרנספורמציות מביכות ופיזיקה לא עקבית. עם זאת, ההיבט המטריד ביותר של ההדלפה לא היה ביצועי הטכנולוגיה עצמה, אלא השאלות האתיות סביב הפיתוח והשחרור שלה.
האמנים המעורבים בהדלפה המהירה והצורבת, שהוזמנו לספק משוב כדי לשפר את המודל, האשימו את OpenAI בניצול כוחם למחקר ולפיתוח בחינם. הם טענו שהחברה למעשה “שוטפת אמנות”, כלומר משתמשת בעבודות של אמנים כדי לשפר כלי שיכול בסופו של דבר להחליף אותם. בעוד ש-OpenAI ממסגרת את הפיתוח של סורה כחלק ממאמץ גדול להעצים יוצרים, המציאות עבור האמנים שהשתתפו במשוב היתה נצלנית; הם לא קיבלו פיצוי על עבודותיהם ולא ניתנה להם אפשרות לפרוש מן הניסוי.
הפרשה הזאת מעלה חשש רציני לגבי האתיקה של אימון AI על תוכן זמין לציבור ללא הסכמת היוצרים שלו. בעוד OpenAI טוענת שהמודל לומד כמו אדם שגולש באינטרנט – בלי להעתיק ישירות אף עבודה ספציפית – הגבול בין השראה וניכוס יצירות מיטשטש. לטענת אמנים רבים, על ידי שימוש בעבודתם כדי לתדלק כלי בינה מלאכותית, שיכולה בסופו של דבר להחליף אותם, OpenAI עוסקת בפרקטיקות לא אתיות המערערות את ערכן של יצירות האמנות.
OpenAI מצידה נושאת באחריות משמעותית להדלפה. השליטה ההדוקה שלה על הגישה למודל וכישלונה להציע פיצוי או הגנה ראויים על עבודתם של אמנים, מוכיחות שהיא מתעלמת מהיוצרים שאותם היא מתיימרת לשרת. במקום להבטיח שקיפות והוגנות בתהליך הפיתוח, OpenAI העדיפה יחסי ציבור ושיווק, וחשפה את הכלי לפני שההשלכות האתיות והמשפטיות המלאות שלו טופלו. בתגובה להדלפה ניסתה החברה להשתיק דיונים בערוצים הרשמיים שלה, מהלך שרק עורר עוד יותר חשד וטינה.
הדלפת סורה היא חלק ממגמה רחבה יותר בתעשיית הטכנולוגיה, שבה חברות דוהרות לשחרר כלי AI חדשים בלי לשקול כראוי את ההשלכות שלהם. קצב החדשנות המהיר של AI, לצד היעדר רגולציה ופיקוח, מובילים לסביבה שבה הרווח לרוב גובר על שיקולים אתיים. בסביבה כזאת ניצול יצירות הופך לא רק אפשרי אלא נפוץ. ואכן חברות המוזיקה הגדולות כבר הגישו תביעה נגד יצרניות המוזיקה באמצעות בינה מלאכותית, Suno ו-Udio, בטענה שנעשה בהן שימוש ביצירות מקוריות כדי לאמן מודלים, ולכן למעשה השימוש בפלטפורמות הללו מהווה הפרת זכויות יוצרים. במקרה זה, הסוגייה המשפטית טרם הוכרעה.
זהירות! רובוטים דמויי אדם
בשנה האחרונה ניכרת התקדמות מטאורית בתחום רובוטיקת דמויית אדם (Humanoid) כאשר שחקנים גדולים כמו Boston Dynamics, Tesla, Nvidia ואחרים, כולל הסינים שמתקדמים יפה בתחום, מציגים מודלים מתקדמים ביותר, והם בהחלט מרשימים. רובוטים אלה, שנועדו לחקות צורה, תנועה ותפקוד אנושיים מסוגלים כעת לבצע משימות מורכבות בתעשיות כמו ייצור, שירותי בריאות וסיוע אישי. יחד עם הצעדים הטכנולוגיים הללו עולה דאגה אתית וחברתית הדורשת שיקול דעת.
![](https://bereshit-news.co.il/wp-content/uploads/2024/12/2.jpg)
Boston Dynamics הפכה שם נרדף לרובוטיקה מתקדמת (גילוי נאות: הכותב הוא מנהל החדשנות של יונדאי בישראל שרכשה את החברה והכתוב, על דעתו בלבד, מתבסס על מידע ששוחרר לציבור). רובוט האטלס שלהם, למשל, התפתח מהפגנת זריזות בסרטוני הרובוטים המרקדים שלהם, למכונה פונקציונלית ביותר המסוגלת לבצע משימות מורכבות כמו ניווט במכשולים, מניפולציה של אובייקטים ואפילו היפוך של האגן ב-180 מעלות. לפיתוחים אלה יש יישומים רחבים בתעשיות כמו לוגיסטיקה וייצור, שבהם רובוטים יכולים לבצע משימות בדייקנות.
הרובוט האנושי של טסלה, Optimus, הוא התקדמות גדולה נוספת. החברה מתייחסת אליו כעוזר אישי למשימות שגרתיות, כולל עבודת פס ייצור וטיפול ביתי. למרות שהוא נמצא עדיין בשלבים ראשונים, Optimus עשוי להשפיע באופן משמעותי על תעשיות, על ידי החלפת פעולות שחוזרות על עצמן או עבודות מסוכנות.
גם Nvidia, הידועה בחומרת הבינה המלאכותית המתקדמת שלה, ממלאת תפקיד מכריע בקידום היכולת של רובוטים דמויי אדם. על ידי שילוב מערכות AI הם מגיבים יותר לסביבתם, משפרים את יכולתם ללמוד משימות חדשות ולפעול באופן אוטונומי. פונקציונליות AI משופרת זו מסייעת לרובוטים לבצע משימות מורכבות עם התערבות אנושית מינימלית.
היישומים הפוטנציאליים של רובוטים דמויי אדם עצומים ומגוונים. בתעשייה הם יכולים להתמודד עם משימות פיזיות קשות, להימנע מפציעות במקום העבודה ולשפר את הפרודוקטיביות. בתחום הבריאות, הם יכולים לסייע בטיפול בחולים, ללוות קשישים ולהציע הטבות סוציאליות משמעותיות. במשק הבית רובוטים אלה יכולים לבצע מטלות יומיומיות ולפנות את זמנם של אנשים לעיסוקים אחרים. רובוטים גם עשויים לחולל מהפכה בתעשייות הנשענות על דיוק וחזרה, כמו לוגיסטיקה; היכולת שלהם למיין חבילות, להרכיב מוצרים ולבדוק פריטים, יכולה לשפר את היעילות ולהפחית עלויות במקומות עבודה.
למרות כל היתרונות הפוטנציאליים הללו, רובוטים דמויי אדם מעלים דאגה; ככל שהם משתפרים, הם צפויים להחליף עבודות אנושיות רבות, במיוחד במגזרים בעלי מיומנות נמוכה. הדבר עלול להוביל לאובדן פרנסה, במיוחד בקרב אוכלוסיות חלשות, ולשינוי מהותי במודל הכלכלי שבו אנחנו חיים כיום. האתגר הוא להכשיר עובדים לתפקידים חדשים ולטפל באי-שוויון פוטנציאלי בכוח העבודה.
ההשלכות האתיות של רובוטיקה דמויית אדם משמעותיות באותה מידה; ככל שהיא משתלבת יותר בחברה, השאלות לגבי האופן שבו בני אדם יתקשרו איתה הופכות דוחקות יותר. דאגה מרכזית אחת היא פרטיות; רובוטים עשויים לאסוף נתונים רגישים על אנשים ועל חייהם. בתחום הבריאות או הלוגיסטיקה, למשל, עשויה להיות להם גישה למידע בריאותי אישי או לפעולות עסקיות סודיות. הגנה על נתונים אלה מפני הפרת פרטיות ושימוש לרעה בהם חיונית ביותר ככל שרובוטים נעשים נפוצים בחיי היומיום.
![](https://bereshit-news.co.il/wp-content/uploads/2024/12/3.jpg)
אתגר אתי נוסף הוא ההשפעה הרגשית והפסיכולוגית של רובוטים על בני אדם; ככל שהם הופכים יותר אנושיים, יתכן שאנשים יצרו איתם קשר רגשי או אפילו תלות בהם, במיוחד בהקשרים כמו טיפול בקשישים או סיוע אישי, מה שמעלה שאלות לגבי הפוטנציאל לניצול או למניפולציה על ידי מי ששולט בהם. ככל שרובוטים מקבלים אוטונומיה, כך הם מטשטשים את הקווים בין מכונה לבן אנוש, ויוצרים דינמיקה רגשית וחברתית מורכבת. כמו כן עולה בעיה של אחריות; אם רובוט עושה טעות או גורם נזק, מי אחראי? המפתחים, היצרנים או הבעלים? ואולי הרובוט עצמו?
קצב ההתקדמות המהיר ברובוטיקה דמויית אדם מציע פוטנציאל עצום, אך הוא גם דורש שיקול דעת מדוקדק של ההשלכות האתיות והחברתיות. בעוד שרובוטים יכולים לשפר את הפרודוקטיביות, הבטיחות ואיכות החיים, הם עלולים לשבש כלכלות ולאתגר את הנורמות החברתיות. אבטחת השימוש בטכנולוגיות הללו באחריות תהיה חיונית להשתלבותן המוצלחת בחברה.
תגובות