הבינה המלאכותית תשנה את העולם לטוב ולרע – ראיון עם מדען המחשבים פרופסור אורן עציוני

בראיון/פודקסט מעניין מדצמבר 2017 אורן עציוני פרופסור למדעי המחשב באוניברסיטת וושינגטון ו- CEO של  Allen Institute for Artificial Intelligence מביע דעה על השלכותיה של הבינה המלאכותית על חיינו.

אורן  עציוני אופטימי לגבי השלכותיה החיוביות של הבינה המלאכותית כגון המכוניות האטונומיות שיוכלו למנוע אלפי תאונות מדי שנה, אך הוא טוען שהבינה המלאכותית תשנה את כלכלת העולם, תחסל מיליוני משרות, ויכולה לגרום למהפכה כלכלית גדולה מכפי הצפוי.

כיצד ניתן להיערך ומה ניתן לעשות בנידון ?

עציוני מתייחס לפתרון המוצע – הסבה למקצועות טכנולוגיים ומסכים שיש להגדיל את האוריינות הטכנולוגית, אך מסתייג מהאמירה הגורפת "הבה ניקח את כורי הפחם ונהפוך אותם לכורי מידע", וטוען שבמציאות הנוכחית, בה פלח נכבד  של האוכלוסייה לא סיים אפילו בית ספר גבוה, פתרון זה לא מציאותי. כך לדוגמה, נהגי  המשאיות, שבעקבות המכונות האוטונומיות עלולים לאבד את מקום עבודתם ,לא ניתן להפוך את כולם למתכנתים או מעצבי אינטרנט.

לעומת זאת, אופציה אפשרית להסבה היא עובדים במקצועות הבריאות ומטפלים caregivers למיניהם החל בשמרטף , אחיות וכלה במטפלים סיעודיים ובמטפלים בילדים עם צרכים מיוחדים. במקצועות אלה יש את הגורם האנושי- התקשורת האנושית עם הזולת,  שהרובוט חסר אותה.

הבעיה היא המימון , מי ישלם על שירותים אלה. אם החברה והממשלה תישאנה לפחות בחלק מההוצאות על שירותים אלה אזי יש אפשרות להסבה מקצועית של עובדים בעבודות מסוימות שתפגענה בעקבות ההתפתחויות בבינה המלאכותית .

בנושא שימוש במידע אישי על ידי חברות, אמר שהאשם במשתמשים – כול עוד אנו מוכנים תמורת שימוש במנוע חיפוש חופשי (גוגל) ורשת חברתית חופשית (פייסבוק) למסור מידע אישי פרטי ביותר אזי יהיו כאלה שידעו כיצד להפיק מכך רווחים.

בהקשר זה לגבי הבינה המלאכותית – כול עוד האיומים לפרטיות שלנו גדלים, אנו צריכים לקבוע כללים ברורים מה מותר לאפליקציות של בינה מלאכותית לגלות עלינו ומה יש לשמור כמידע פרטי.

עוד בנושא הרגולציה של הבינה המלאכותית – כלל נוסף שעלינו ליישם בהקשר של האפליקציות של בינה מלאכותית הוא לקיחת אחריות במקרה של נזקים וכו' ולא להטיל את האחריות על הבינה המלאכותית.

כלל חשוב נוסף לגבי הבינה המלאכותית לאור המצב שקשה לזהות מתי מדובר באדם או ברובוט/ תוכנה המדמה התנהגות אנושית באפליקציות ברשת כפי שקרה  בטוויטר  – הרי שאם מערכת הינה באמת תוכנה  של בינה מלאכותית  חייבים לידע על כך ולתייגה בהתאם כגוןAI inside.

אלה הם שלושת הכללים שמציע פרופסור עציוני ליישם כדי להימנע מנזקים אפשריים של הבינה המלאכותית

למידע נוסף בנושא שלושת הכללים הנ"ל

לראיון/פודקסט

מודעות פרסומת

אודות information-world

ד"ר יפה אהרוני , מידענית
פוסט זה פורסם בקטגוריה טכנולוגיות, כללי. אפשר להגיע ישירות לפוסט זה עם קישור ישיר.

להשאיר תגובה

הזינו את פרטיכם בטופס, או לחצו על אחד מהאייקונים כדי להשתמש בחשבון קיים:

הלוגו של WordPress.com

אתה מגיב באמצעות חשבון WordPress.com שלך. לצאת מהמערכת /  לשנות )

תמונת גוגל פלוס

אתה מגיב באמצעות חשבון Google+ שלך. לצאת מהמערכת /  לשנות )

תמונת Twitter

אתה מגיב באמצעות חשבון Twitter שלך. לצאת מהמערכת /  לשנות )

תמונת Facebook

אתה מגיב באמצעות חשבון Facebook שלך. לצאת מהמערכת /  לשנות )

מתחבר ל-%s