על אתיקה, בינה מלאכותית ומה שביניהן

הישאם עבד אלחלים, מנהל מוצר ראשי באינטואיט, חוקר בכובעו האקדמי את הקשר שבין האתיקה ל-AI ורואה בה הרבה בעיות אפשריות ● "למרות זאת", לדבריו, "היא תשנה את חיינו לטובה, תאפשר לעסוק בפעילות אינטלקטואלית - ותהיה האוטופיה האולטימטיבית"

הישאם עבד אלחלים, מנהל מוצר ראשי באינטואיט וחוקר אתיקה ובינה מלאכותית באוניברסיטת בן גוריון. צילום: אייל טואג

"אני רואה בבינה המלאכותית סוגיות אתיות רבות, בעיות פוטנציאליות ובעיקר חוסר איזון בכוח או חשש לשימוש לרעה בסוגים שונים שלה. עם זאת, להערכתי, היא תשנה את מרבית חיינו לטובה, במיוחד בטווח הזמן שעד סוף העשור הנוכחי – כי אפילו השפעות רעות של בינה מלאכותית יכולות להיחשב טובות על ידי רוב האנשים", כך אמר הישאם עבד אלחלים, מנהל מוצר ראשי באינטואיט.

עבד אלחלים עוסק בבינה מלאכותית, אתיקה ובממשק שביניהם – באינטואיט ובאקדמיה. בראיון לאנשים ומחשבים הוא אמר כי "למידת מכונות אלגוריתמית תהווה מנוע הגברה, מעין אמפליפייר לבינה האנושית שלנו. היא תבחן באופן ממצה נתונים ועיצובים בדרכים שבני אדם בלבד לא יכולים לעשות, למשל בעת לקיחת הלוואה בבנק. היכולת של הבינה המלאכותית גבוהה לאין ערוך מזו של יועץ ההלוואות בבנק להביט על התמונה באופן כולל, לרבות סיכוי ההחזר של הלווה וניהול סיכונים מושכל בעת מתן ההלוואה. כאשר נצליח לשחרר אנשים מעבודות ייצור ושירותים, בוודאי מביצוע של פעולות שחוזרות על עצמן, לכולם תהיה ההזדמנות לעסוק בפעילות אינטלקטואלית, מה שיהיה בבחינת האוטופיה האולטימטיבית".

מ-"קופסה שחורה" ל-"קופסה שקופה"

לצד עבודתו באינטואיט וסיום שלושה תארים אקדמיים, עבד אלחלים נמצא לקראת סיום דוקטורט באתיקה בהנדסת תוכנה באוניברסיטת בן גוריון. הוא מתמקד בנושא האתיקה שבעיסוק בבינה מלאכותית. לדבריו, "גם במודל ססטיסטי שמריצים אותו והוא מוצא קשרים יש בעיות נתונים, עם הטיות. כך, העוסקים בתחום עלולים להגיע למצב של החלטה המבוססת על הנחות שגויות. כאשר עובדים עם בינה מבוססת תפיסת 'קופסה שחורה', משמע – מכניסים קלט ומקבלים פלט, לא רואים מה יש בפנים. בשל כך, נדרש ליישם מודלים ואלגוריתמים מבוססי שקיפות, מה שמכונה 'קופסה שקופה'. זה הכיוון שאליו הולך התחום".

הוא הסביר כי "היכולת להבין למה מודל קיבל החלטה זו או אחרת ובאילו נתונים הוא השתמש היא הגורמת לבדוק החלטה כשרואים הטיה לא מוסברת. לצד מענה זה, נדרש מענה בצד הרגולטורי. זאת, כדי לקבל יכולת לניתוח של מודלים סטטיסטיים, על מנת לשפר אותם".

איך משתמשים בבינה מלאכותית מבלי להפר כללי אתיקה? צילום אילוסטרציה: BigStock

איך משתמשים בבינה מלאכותית מבלי להפר כללי אתיקה? צילום אילוסטרציה: BigStock

"בסופו של דבר", אמר עבד אלחלים, "כל המחקר שנעשה נועד לענות לשאלה איך משפרים את האיכות של התוכנה. זאת, כדי להימנע ממצבים בעייתיים, למשל כשמנוע זיהוי הפנים של גוגל זיהה אפרו-אמריקנים כקופים. אם המודל היה טוב יותר, הייתה יכולת לנתח זאת בכל מיני מקרים – וכך ניתן היה להימנע מהזיהוי השגוי והבעייתי".

"הבעייתיות היא דו-כיוונית", הסביר. "אם מאמנים מודל על פחות מידע, הדבר מביא ליותר הגנה על הפרטיות. ככל שנגדיל את האימון עם יותר פרטים – המודל יהיה יותר מדויק. המטרה שלנו, כחוקרי נתונים ומנהלי מוצר, היא לוודא קבלת החלטות טובות יותר בממדי החיים השונים".

"אני חושב על עולם שבו המכשירים של אנשים מעריכים את העולם סביבם ברציפות, כדי לשמור על אוכלוסייה בטוחה ובריאה יותר", ציין עבד אלחלים. "זאת, תוך מחשבה על תושבים המתגוררים באזורים עירוניים גדולים, עם מכשירים המהווים רשת של קלט AI – באמצעות ניתוח קול, איכות האוויר, אירועים טבעיים ועוד. כל אלה יכולים לספק התראות ותובנות קולקטיביות לכל אחד באזור מסוים, במגוון תחומים, כגון גורמים סביבתיים או בריאות גופנית. הבינה המלאכותית מעניקה יכולת למדעני נתונים ולחברות היי-טק לפעול באופן מדויק יותר. אתיקה ובינה מלאכותית גורמות לאיכות תוכנה טובה יותר. באינטואיט, אנחנו דואגים שהאלגוריתמים שלנו ישופרו, על מנת שהלקוחות יקבלו יכולת החלטה משופרת".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים