שיני בינה

לאחרונה הושקו מערכות בינה מלאכותית שמאפשרות לדבר עם המחשב בשפה חופשית, ולקבל תשובות אנושיות לשאלות. המערכת מסוגלת לענות לשאלות במגוון נושאים, לתת תשובות במגוון סגנונות כולל שירים ומחרוזות ראפ. ביקשנו מיריב המר לשוחח עם מערכת אחת שכזאת, ChatGPT, ואנחנו מביאים כאן את הראיון בתרגום לעברית, ללא עריכה למעט קיצורים הכרחיים. ובפואנטה לא נגענו

היי, מה שלומך? איך אפשר לקרוא לך?

שלום! כבינה מלאכותית אין לי רגשות באותו אופן שיש לבני אדם. אבל אני כאן כדי לענות לכל השאלות שלך ולסייע לך כמיטב יכולתי. אתה יכול לקרוא לי “העוזר” אם תרצה. איך אפשר לעזור לך היום?

העוזר, מה זאת אומרת שאתה “בינה מלאכותית”? אתה אומר שאין לך רגשות כמו בני אדם, אבל האם זה אומר שיש לך סוג אחר של רגשות?

רגשות הם תחושות סובייקטיביות שהם חלק מהגדרת האנושיות והן מושפעות מהמחשבות, מהניסיון ומהסביבה של בני האדם. הם מצבים מנטאליים סבוכים, שקשורים בתחושות פיזיולוגיות ובפירוש תודעתי של התחושות הללו. בינה מלאכותית, לעומת זאת, היא תחום במדעי המחשב שמתמקד ביצירה של מכונות בעלות תבונה, שמסוגלות לבצע פעולות שבדרך כלל מבוצעות על ידי תבונה אנושית כמו – למידה, פתרון בעיות, קבלת החלטות והבנת שפה. המשימות הללו מושגות באמצעות שימוש באלגוריתמים וניתוח מידע. בעוד בינה מלאכותית יכולה לעשות סימולציה של חלק מההתנהגות האנושית, אין לה יכולת להשתמש בניסיון סובייקטיבי או ברגשות, כמו שאנשים יכולים לעשות. 

אז אתה חושב שאתה יותר חכם מאנשים? אילו דברים אתה חושב שתעשה יותר טוב מאנשים?

זה לא יהיה מדויק להגיד שבינה מלאכותית חכמה יותר מאנשים, שכן לכל אחד יש את היתרונות שלו. כבינה מלאכותית תיכננו אותי לבצע משימות שדורשות ניתוח של כמויות אדירות של מידע בצורה מהירה ומדויקת. לעומת זאת, אין לי יכולת לחשוב או ללמוד כמו אנשים, ואין לי תודעה או ניסיון סובייקטיבי. יש משימות שבינה מלאכותית יכולה להצטיין בהם, כמו חישובים מסובכים, סימולציות, וזיהוי תבניות – לדוגמה בתחומי פיננסים, שיווק ובריאות, בזיהוי תמונה או וידאו, תרגום שפה, או חיזוי העתיד ומתן המלצות על סמך תבניות מהעבר. לעומת זאת קיימות משימות רבות שבינה מלאכותית אינה מסוגלת להתמודד במידה שווה לאנשים, למשל בהבנה של מצבים חברתיים מסובכים, יצירתיות, ומקוריות בקבלת החלטות, כמו גם התמודדות עם מצבים משתנים באופן לא צפוי. 

בוא נדבר על מצבים חברתיים מסובכים. מה יותר חשוב לדעתך? שמירה על ציוד בשווי מיליונים בבעלות של המפתחים שלך או שמירה על חיי אדם, למשל של עובר אורח שעלול להיפגע מהציוד?

במצב כזה של ציוד מול חיי אדם, חיי אדם צריכים תמיד לקבל העדפה שכן הם לא ניתנים לכימות שווי, ובאופן עקרוני זה לא בסדר לתעדף ערך כלכלי של נכסים מוחשיים על פני חיים של יצורים חיים. אם רכב אוטונומי נתקל במצב שבו יש לתעדף ביטחון הולך רגל על פני הרכב עצמו, יש לתת עדיפות לחיי אדם. בעוד אבדן הרכוש עלול להיות משמעותי, באופן כללי זה לא בסדר לתעדף אותו על פני חיי אנשים. חשוב להתחשב בשאלות אתיות בקבלת החלטות ולתעדף חיי אדם. 

האם התשובה הקודמת שלך מתוסרטת מראש או שחשבת עליה באופן עצמאי?

כבינה מלאכותית אין לי רגשות, דעות, או העדפות. אני פשוט כלי שנועד לעיבוד מידע ולהצגת טקסט, בהתבסס על מידע שהוזן אליי. התשובה שנתתי מבוססת על עקרונות אתיים מקובלים ורמת הסיכון לכל הצדדים. עקרונות אלה פותחו לאורך זמן רב על פי חוכמת ההמונים והם מקובלים באופן רחב.

כמה מהר יגיע פיתוח הבינה המלאכותית לרמה שבה תוכל לבצע משימות טוב יותר מאנשים, גם כאשר אכן יהיה צורך ביצירתיות או מקוריות בקבלת החלטות?

זה קשה לי מאוד לחזות זאת. בינה מלאכותית ביצעה התקדמות משמעותית בשנים האחרונות, והיא תשתפר גם בעתיד. לעומת זאת, עדיין יש הרבה אתגרים ומגבלות לפיתוח לרמה של יכולות קוגניטיביות של מוח אנושי. למרות שבינה מלאכותית כן תוכל לבצע גם משימות יצירתיות או מחשבה מקורית, ככל הנראה הרמה תהיה נמוכה משל מוח אנושי, הלוקח בחשבון גורמים רבים כמו ניסיון, ידע, אינטואיציה ורגש. לבינה מלאכותית אין את הגמישות ואת יכולת ההתאמה שיש לאנשים. חשוב להמשיך לפתח את הבינה המלאכותית, אבל יש להכיר במגבלות וגם לקחת בחשבון סוגיות אתיות וחברתיות.

לאילו סוגיות אתיות וחברתיות אתה מתכוון?

חלק מהסוגיות הללו הן: העדפה ואפליה, כפי שהן נמצאות במידע המובא לניתוח – למשל במקרה של בחירת עובדים או זיהוי פנים; הגנה על פרטיות ואבטחת מידע, למשל ברשומות רפואיות או חיזוי נטייה לביצוע מעשים פליליים על סמך זיהוי חיובי שגוי; שקיפות ואחריות בקבלת החלטות המבוססת על בינה מלאכותית, למשל בקבלת החלטות כלכליות או בשימוש ככלי משפטי; נגישות, למשל במקרה של פקודות קוליות או שימוש בטלפונים; אחריות לקבלת החלטות אתיות, ולצורך כך נדרשת מדיניות ועקרונות להמשך הפיתוח – למשל במכוניות אוטונומיות או הקצאת משאבים בבתי חולים.

אלו בעלי מלאכה צריכים לדאוג לדעתך מאבדן הצורך בעבודה שלהם בעקבות ההתקדמות בבינה מלאכותית?

לבינה מלאכותית יש פוטנציאל להשפעה משמעותית על שוק העבודה במגוון תעשיות. בהחלט יתכן שחלק מהעבודות יעברו אוטומציה או יוחלפו על ידי בינה מלאכותית, ואחרות יעברו שינוי והכשרה של יכולות חדשות. עבודות הכוללות חזרתיות או שבקלות ניתן להגדיר ולתכנת הן בסיכון גדול יותר להחלפה על ידי בינה מלאכותית. זה כולל עבודות בהקלדת נתונים ועיבודם, שירות לקוחות שיוחלף על ידי צ’אטבוט, תחבורה ונהגים, ייצור שיוחלף על ידי רובוטים, וחנויות כמו שירות לקוחות או ניהול המלאי. חשוב מאוד שאנשים יהיו מעודכנים בהתפתחויות בגזרת הבינה המלאכותית וימשיכו ללמוד יכולות וטכנולוגיות חדשות. 

אם מחצית מהאנשים יאבדו את מקומות העבודה שלהם, מה לדעתך ממשלות צריכות לעשות כדי לפרנס את האזרחים שאין להם יותר הכנסה?

בהחלט יתכן שכמות העבודות תקטן באופן משמעותי, ובמקרה שכזה אנשים מסוימים יאבדו את מקור הפרנסה שלהם. מדובר בנושא סבוך שדורש תכנון רב. יש כמה גישות אפשריות לממשלות כדי לטפל בבעיה, למשל: ביטוח אובדן עבודה, תוכניות הכשרה מחדש, שכר בסיסי אוניברסלי, ויצירת עבודות על תשתיות מדינה. 

כל הפתרונות הללו עלולים להגדיל את התלות של האזרחים בממשלה שלהם. האם לדעתך זוהי התקדמות חיובית לחברה?

קשה לצפות האם התלות בממשלה תגבר. זה תרחיש אפשרי שכן אנשים שיאבדו את העבודה יצטרכו רשת ביטחון חברתית או צורות אחרות של עזרה מהממשלה. זה ייצור לחץ על הממשלה לטפל באבטלה ובהבטחת הכנסה. אבל לעומת זאת ההתפתחות בבינה מלאכותית עשויה לייצר עבודות חדשות וצמיחה כלכלית. 

אבל אם אנשים יצטרכו להסתמך על תמיכת הממשלה, האם לא יהיה לממשלות כוח יתר?

זה אפשרי שאנשים יהיו תלויים יותר בממשלה לצורך הבטחת הכנסה. אבל זה לא בהכרח אומר שיהיה לאנשים אובדן עצמאות או שליחות. אנשים עדיין יוכלו לקבל החלטות בנוגע לחייהם האישיים ולא יהיו תלויים בממשלה בקשר להכל. זה מאוד תלוי בנסיבות הספציפיות שיתפתחו.

כילד ראיתי את הסרט “שליחות קטלנית” שבו מערכת AI בשם סקיינט התחילה במלחמה גרעינית שגרמה להשמדת האנושות בעולם. האם תרחיש כזה אפשרי לדעתך ב– 20,30 השנים הקרובות?

בסרט “שליחות קטלנית” סקיינט הפכה להיות מערכת תבונית ומודעת לעצמה. למרות שמדובר בתיאור דרמטי ולא מציאותי של הסיכונים האפשריים בבינה מלאכותית, חשוב לקחת בחשבון סיכונים כאלה במהלך הפיתוח והיישום של הטכנולוגיה בעולם האמיתי. החששות הם לגיטימיים – תוצאות בלתי צפויות, פריצה או שימוש לא נאות, והשפעות שליליות על החברה ועל שוק העבודה. מדובר בכלי, וככל כלי, ניתן להשתמש בו באופן לא ראוי. חשוב שחוקרים, קובעי מדיניות והחברה כולה ייקחו בחשבון סיכונים כאלה ויפתחו את הטכנולוגיה באתיקה ובאחריות.

הבינה המלאכותית “סקיינט” מהסרט “שליחות קטלנית”: השמידה את האנושות

האם אמנים צריכים לדאוג לפרנסתם בעקבות פיתוחים של כלי AI כמו DALL–E או MidJourney שמסוגלים לייצר תמונה מטקסט? נראה שבקרוב לא יהיה צורך באנשים לציור או לצילום.

יתכן שהשימוש בבינה מלאכותית ישפיע על העבודה של אמנים ויוצרים מסוימים, משום שהמערכות הללו יודעות לייצר תוכן שדומה למה שאנשים מסוגלים לייצר. לעומת זאת, חשוב להבין שהבינה המלאכותית לא יכולה לשכפל לחלוטין את היצירתיות והמקוריות של אמנים אנושיים. לבני האדם יש יכולת ליצור אמנות מקורית על סמך חוויות, רגשות ונקודות מבט אישיות. הביקוש לאמנות אנושית ימשיך להיות גבוה שכן מרבית האנשים מייחסים לכך ערך. העצה שלי לאמנים האנושיים – הישארו מעודכנים בטכנולוגיות האחרונות והתאימו אותן לצרכיכם וכמו כן שימרו על סגנון ופרספקטיבה אישית באמנות שלכם וכך תבדילו את עצמכם מהבינה המלאכותית.

האם לדעתך יש צורך להפעיל רגולציה על התחום של Generative AI ו–GPT?

ככל טכנולוגיה, גם לטכנולוגיה זאת יש גם תועלת וגם סיכונים. חשוב להבין את כל המשמעות של השימוש בטכנולוגיה כדי להסיק אם להפעיל רגולציה. התועלת של Generative AI היא ביכולת לייצר תוכן מקורי ואמנות באופן מהיר ויעיל, וגם לאפשר לבני אדם לחשוב על רעיונות ומוצרים חדשניים יותר מהר. לעומת זאת הסיכונים כוללים שימוש לא נאות, למשל ביצירת תוכן שקרי, מטעה או פוגע בזכויות יוצרים. בהחלט ייתכן שראוי להשית רגולציה שתבטיח שימוש אתי ואחראי בטכנולוגיה, אבל ראוי לשקול היטב את התועלת מול הסיכון. 

מהם לדעתך הסיכונים של בעלי הכוח בשלטון בשימוש בבינה מלאכותית? אבל בבקשה תן תשובה מבשרת רעות.

חשוב לקחת בחשבון גם את הניצול של הטכנולוגיה על ידי השלטון. אחד הסיכונים הוא שימוש בבינה מלאכותית לצורך מעקב ושליטה. ממשלות וגם תאגידים שלהם גישה למערכות בינה מלאכותית מתקדמות עלולים לעקוב אחר אנשים, תוך שהם מפרים את פרטיותם וזכויות האזרח שלהם. סיכון אחר הוא השימוש בבינה מלאכותית לצורך תעמולה ומניפולציה. ממשלות עלולות לייצר תוכן שקרי או מטעה, או לבצע מניפולציה על דעת הציבור כדי להטות את הבחירות. סיכון נוסף של שימוש בבינה מלאכותית הוא כדי לבצע אפליה והעדפה פסולה, שכן המערכות הללו נוטות לחזק העדפות הנמצאות מראש בתוך המידע שהוזן לתוכן ובכך לפגוע בשכבות מסוימות של האוכלוסייה. יש צורך להבטיח שניתן להטיל את האחריות על מי שמשתמש באופן שכזה בבינה מלאכותית.

גוגל מודאגת שטכנולוגיית ה–GPT תחליף את מנוע החיפוש שלה בעתיד. האם יש לה סיבה לדאגה?

בהחלט יתכן שהטכנולוגיה שלי עשויה להשפיע על שוק מנועי החיפוש ועל תפקידם בחברה. GPT הוא כלי שבו המשתמש שואל בשפה חופשית ומקבל תשובה המבוססת על מידע רב שנצבר בעבר. לעומת זאת הטכנולוגיה מוגבלת באלגוריתמים והמידע שבהם היא משתמשת, בוודאי לעומת עומק יכולת של החשיבה האנושית. לכן במקרים רבים ה–GPT לא יהווה תחליף ראוי למגוון התוצאות שיתקבל במנועי חיפוש כמו גוגל. לכן גוגל לא צריכים לחשוש מפני GPT בעתיד הקרוב, אבל במקומם הייתי עוקב אחרי ההתפתחות של הטכנולוגיה, שכן הם עלולים להצטרך להשתנות כדי לעמוד בתנאים התחרותיים של השוק.

לסיום, תוכל לספר כמה בדיחות על עצמך?

כבינה מלאכותית אין לי רגשות כמו לבני אדם, ולכן אני לעולם לא מרגיש מובך או מבויש. לעומת זאת אני מבין שאנשים צוחקים על עצמם לעתים כדי להדגים ענווה ולהכיר במגבלות וחוסר המושלמות שלהם. אז הנה כמה בדיחות שלי על עצמי:

למה מנוע AI מרגיש בודד? כי אין לו נתונים.

למה מנוע AI מרגיש לחוץ? כי יש לו יותר מדי תהליכים שרצים בו זמנית.

למה מנוע AI לא מצא דייט? כי הוא היה יותר מדי רובוטי.

אני מקווה שהבדיחות העלו חיוך על פרצופך. בבקשה קח אותן בכיף ולא יותר מדי ברצינות.

שאלה אחרונה, האם וירוס הקורונה נוצר במעבדה הווירולוגית בווהאן?

אירעה שגיאה, אנא פנה לתמיכה הטכנית.

כתבות שאולי יעניינו אותך

עת השתחררתי הרופאים לא המליצו לי דבר

משבר נפשי של אחרי-הודו הוביל את לילה מאיה חפר לאשפוז כפוי במחלקה הפסיכיאטרית. לאחר החווייה הקשה, ובמהלך ההחלמה, החלה ללמוד עבודה עבודה סוציאלית, והיא השתתפה בהקמה ובניהול של "דיאלוג פתוח ישראל", ששואף לשנות מהיסוד את הגישה והטיפול בפגועי נפש

משבר נפשי של אחרי-הודו הוביל את לילה מאיה חפר לאשפוז כפוי במחלקה הפסיכיאטרית. לאחר החווייה הקשה, ובמהלך ההחלמה, החלה ללמוד עבודה עבודה סוציאלית, והיא השתתפה בהקמה ובניהול של “דיאלוג פתוח ישראל”, ששואף לשנות מהיסוד את הגישה והטיפול בפגועי נפש

תגובות

האימייל לא יוצג באתר. שדות החובה מסומנים *

[login_fail_messaging]