מעניין

האם אנו מתכנתים מכוניות רוצחות? האתיקה של כלי רכב אוטונומיים

האם אנו מתכנתים מכוניות רוצחות? האתיקה של כלי רכב אוטונומיים

במהלך השנים האחרונות, יותר ויותר תכונות אוטונומיות הוטמעו במכוניות. ורק לפני כמה חודשים טסלה פרסמה את הסרטון הבא בו היא התהדרה בכך שהשיגה "נהיגה עצמית מלאה".

מאמר של Techopedia דיווח כי מכוניות טסלה עוד יותר מכילות "החומרה הדרושה לנהיגה אוטונומית", אם כי הפעלת היכולת תלויה בעדכון תוכנה. המאמר גם צפה את ההבדל בין האופן שבו מכוניות אוטונומיות שנבנות כיום יהיה שונה מהעתיד.

נכון לעכשיו, מכוניות טסלה מצוידות בחומרה הדרושה לנהיגה אוטונומית, אך נדרשים עדכוני תוכנה בכדי לאפשר את התכונה באופן מלא. זה אמנם יאפשר נהיגה אוטונומית לחלוטין, אך גם עדיין יאפשר לנהג האנושי להשתלט כאשר המצב קורא להתערבות.

הדור הבא של הרכבים האוטונומיים, לעומת זאת, לא יזדקק להגה, לדוושות או לתיבות הילוכים. היתרון של מכוניות כאלה הוא האפשרות להפחית תאונות ולספק תחבורה הכרחית לאנשים שאינם מסוגלים לנהוג כמו קשישים או בעלי ראייה או מוגבלות פיזית.

אבל יש גם חסרון פוטנציאלי: הצורך בסוכנות האנושית שמגדירה את תכנות המכונית צופה את כל התרחישים האפשריים ותנחה את המכונית לבצע את סוג השיפוט שאנשים צריכים לעשות כאשר התרחיש קורא לפעולה שבהכרח תגרום לכמה צורה של נזק.

אמנם טסלה עשוי להיות השם המפורסם ביותר בחזית AI לרכבים, אך בהחלט אינו השחקן היחיד בשוק ההולך וגדל. כמה שמות נכבדים הרבה יותר בענף נכנסו גם הם לפעולה.

קשורים: ההיסטוריה המעניינת של מכוניות חשמליות

ברנרד מאר כתב לאחרונה על השקעת מיליארד הדולר של טויוטה במכוניות בנהיגה עצמית ובינה מלאכותית. החברה הציבה לעצמה יעדים אליה היא רוצה להגיע עד 2020:

"באמצעות ההשקעות של טויוטה בסטארט-אפים טכניים כמו Perceptive Automata היא מקווה ליצור את הטכנולוגיה כדי לאפשר לכלי רכב אוטונומיים אינטואיציה דמוית אנוש יותר כאשר הם על הכביש דומים יותר לאופן שבו נהגים אנושיים מקיימים אינטראקציה עם הולכי רגל."

שיא מסלול בטיחות בנהיגה עצמית

כמובן, אנחנו עדיין לא שם. אבל השאלה היא אם זו המטרה הסופית ואם זה משהו שעלינו להמשיך אחריו ללא שיקולים מלאים של השלכותיה של מכונית עצמאית לחלוטין.

בכל תאונת דרכים עם נהיגה עצמית בודדת ורשימות מוות תשע תאונות בהן היו מעורבים כלי רכב אוטונומיים, שרק ארבע מהן גרמו להרוגים. עם זאת, למרות טענות הכותרת, הרשימה איננה שלמה, מכיוון שהיו הרוגים מתאונות כאלה לאחר פרסום המאמר.

ההרוג האחרון בו דיווחה היה זה שהיה מעורב בדגם X של טסלה ב- 23 במרץ 2018. נהג המכונית נפטר כאשר פגעה במחסום הכביש המהיר. טסלה האשים את זה בהפרעה של המכשול למערכת הנהיגה האוטונומית של הרכב:

"הסיבה שההתרסקות הזו הייתה כה חמורה היא מכיוון שמנחת ההתרסקות, מחסום בטיחות בכביש המהיר שנועד להפחית את הפגיעה בחלוקה לנתיב בטון, נמחץ בתאונה קודמת מבלי שהוחלף", נכתב בהודעת טסלה.

החברה הוסיפה: "מעולם לא ראינו את רמת הנזק הזו לדגם X בשום התרסקות אחרת."

למרבה הצער, עם זאת, זה לא היה הסוף של תאונות קטלניות עבור מכוניות הנהיגה העצמית של טסלה. מספר מהם התרחשו השנה.

בין האירועים היה אחד ב -1 במרץ 2019. זה אושר על ידי המועצה הלאומית לבטיחות תחבורה בארה"ב (NTSB) כי תוכנת הטייס האוטונומי למחצה הייתה מעורבת במודל טסלה דגם 3 כאשר היא הוטמנה בקרוואן טרקטור בניסיון לחצות פלורידה. הכביש המהיר ונהג הרכב נהרג.

למרות שהם עדיין נדירים יחסית, בהשוואה לתאונות הדרכים שנגרמו על ידי נהגים אנושיים, העובדה שיש תאונות והרוגים שנגרמו על ידי מכוניות בנהיגה עצמית גרמה לאנשים להיות מודאגים מהבטיחות והתכנות שלהם. למעשה, השנה קוורץ הטיל ספק לגבי טענות הבטיחות של טסלה.

כמו אותה תאונת טסלה, רוב תאונות הדרכים האוטונומיות גורמות למותו של האדם היושב במושב הנהג. עם זאת, היו מקרים של אנשים מחוץ למכונית שנפגעו ונהרגו על ידי מכוניות אוטונומיות.

המקרה הידוע לשמצה ביותר מסוג זה עשוי להיות זה שהיה מעורב באובר במותה של איליין הרצברג במארס 2018. האישה בת 49 הלכה ודחפה את אופניה על פני שדרת מיל בטמפה, אריזונה, כאשר מכונית אובר פגעה בה.

תוכלו לראות את סרטון האירוע שפרסמה המשטרה כאן:

כתוצאה מכך, אובר אימצה מדיניות של הקפדה על שילוב נהגים אנושיים במכוניותיה. הסיפור דווח כאן: אובר מחזירה מכוניות עם נהיגה עצמית לעבודה אך עם נהגים אנושיים.

זוהי דרך של אובר לעקוף את הבעיה שנצטרך להתמודד איתה, כאשר וכאשר מכוניות אוטונומיות לחלוטין יהפכו לנורמה: כיצד לתכנת אותן לשילוב האינסטינקט לשימור חיי אדם.

תכנות AI בדאגה לאתיקה

כפי שראינו במאמר אחר, העולם החדש האמיץ שלנו: מדוע ההתקדמות של AI מעלה דאגות אתיות, בכוחו הגדול של AI מגיע האחריות הגדולה, לוודא שהטכנולוגיה לא בסופו של דבר מחמירה מצבים בשם ההתקדמות. חקר האתיקה עבור AI משך את תשומת ליבם של אנשים שחושבים מה צריך לעשות לפני הטמעת פתרונות אוטומטיים.

אחד מאותם אנשים הוא פול ת'אגארד, דוקטור, פילוסוף קנדי, ומדען קוגניטיבי שהעלה כמה מהנושאים שעלינו להתמודד עתה ביחס לאתיקה התכנתית לבינה מלאכותית כיצד לבנות בינה מלאכותית אתית.

הוא מעלה את שלושת המכשולים הבאים:

  1. תיאוריות אתיות שנויות במחלוקת רבה. יש אנשים שמעדיפים עקרונות אתיים שנקבעו על ידי טקסטים דתיים כמו התנ"ך או הקוראן. פילוסופים מתווכחים האם האתיקה צריכה להתבסס על זכויות וחובות, על התועלת הגדולה ביותר עבור מספר האנשים הגדול ביותר, או על פעולה נהדרת.
  2. פעולה אתית מחייבת סיפוק ערכים מוסריים, אך אין הסכמה לגבי הערכים המתאימים או אפילו לגבי מהם הערכים. ללא חשבון הערכים המתאימים שאנשים משתמשים בהם כשהם פועלים בצורה אתית, אי אפשר ליישר את הערכים של מערכות AI עם הערכים של בני האדם.
  3. כדי לבנות מערכת AI שמתנהגת בצורה אתית, צריך לדייק רעיונות לגבי ערכים ונכונים ושגויים בכדי שיוכלו להיות מיושמים באלגוריתמים, אך דיוק ואלגוריתמים חסרים מאוד את הדיונים האתיים הנוכחיים.

תאגרד מציע גישה להתמודד עם אתגרים אלה, הוא אומר, ומפנה לספרו, פילוסופיה טבעית: ממוח חברתי לידע, מציאות, מוסר ויופי. עם זאת, במהלך המאמר, הוא אינו מציע פתרון המתייחס באופן ספציפי לתכנות מכוניות בנהיגה עצמית.

מכוניות בנהיגה עצמית ובעיית העגלה

באופן אידיאלי, נהגים נמנעים מלהכות דבר או מישהו. אבל אפשר למצוא את עצמך במצב בו אי אפשר להימנע מהתנגשות, והבחירה היחידה היא באיזה אדם או אנשים להכות.

הדילמה האתית הזו היא מה שמכונה בעיית העגלה, שכמו העגלה עצמה חוזרת על פני מאה שנה. זה בדרך כלל מוצג באופן הבא:

אתה רואה עגלה בורחת נעה לעבר חמישה אנשים קשורים (או נכים אחרת) ששוכבים על המסילה. אתה עומד ליד מנוף השולט על מתג. אם תמשוך בידית, העגלה תנותב למסלול צדדי וחמשת האנשים במסלול הראשי יישמרו. עם זאת, ישנו אדם יחיד ששוכב על המסלול הצדדי.

יש לך שתי אפשרויות:

  1. לא לעשות כלום ולאפשר לעגלה להרוג את חמשת האנשים במסלול הראשי;
  2. משוך את הידית והסב את העגלה אל המסילה הצדדית שם היא תהרוג אדם אחד.

כמובן, אין כאן ברירה ממש טובה. השאלה היא איזו אחת היא הפחותה מבין שתי אפשרויות גרועות. זו בדיוק דילמה שהגובלין הירוק הציג לספיידרמן בסרט משנת 2002, תוך ניסיון לאלץ אותו לבחור בין חילוץ רכבל מלא בילדים או האישה שהוא אוהב:

בהיותו גיבור-על, הצליח ספיידרמן להשתמש ביכולותיו ובכוחו ברשת כדי להציל את שניהם. אבל לפעמים אפילו גיבורי על צריכים לבחור בחירה טראגית, כפי שהיה המקרה בסרט משנת 2008האביר האפל בו הבחירה של באטמן הייתה להשאיר את האישה שאהב בבניין שהתפוצץ.

כך שגם מי שיש לו יכולות מעולות לא תמיד יכול להציל את כולם, ואותו מצב יכול לחול על מכוניות התומכות ב- AI.

השאלה היא אם כן: איזה קוד אתי אנו מיישמים כדי לתכנת אותם לבחירות כאלה?

מה על המכונית הנהיגה העצמית לעשות?

MIT Technology Review הפנה את תשומת הלב לכמה חוקרים שעבדו על ניסוח התשובות לפני כמה שנים בנושא כיצד לעזור למכוניות בנהיגה עצמית לקבל החלטות אתיות. בין החוקרים בתחום ניתן למנות את כריס גרדס, פרופסור באוניברסיטת סטנפורד שבדק את "הדילמות האתיות שעשויות להתעורר כאשר נהיגה עצמית ברכב נפרסת בעולם האמיתי."

הוא הציע בחירה פשוטה יותר: ההתמודדות עם ילד שרץ לרחוב, מה שמאלץ את המכונית לפגוע במשהו אך מאפשר לה לבחור בין הילד לטנדר בכביש. עבור בן אדם שאמור להיות לא פשוט, הגנה על הילד חשובה יותר מהגנה על הטנדר או על המכונית האוטונומית עצמה.

אבל מה יחשוב ה- AI? ומה לגבי הנוסעים ברכב שעלולים לסבול מפציעות מסוימות מהתנגשות כזו?

גרדס ציין כי "אלה החלטות קשות מאוד שעומדות בפני מי שמתכנן אלגוריתמי בקרה לרכבים אוטומטיים מדי יום."

המאמר מצטט גם את אדריאנו אלסנדריני, חוקר העובד על כלי רכב אוטומטיים באוניברסיטת רומא לה ספיינצה, באיטליה, ששימש כראש החלק האיטלקי בפרויקט CityMobil2 האירופי לבדיקת רכב מעבר אוטומטי. ראה את הסרטון אודותיו למטה:

היא סיכמה את בעיית העגלה לנהגים ומכוניות בנהיגה עצמית בסיכום זה:

"אולי תראה משהו בדרכך, ותחליט להחליף נתיב, וכמו שאתה עושה, משהו אחר נמצא בנתיב הזה. אז זו דילמה אתית. "

מומחה בולט נוסף בתחום הוא פטריק לין, פרופסור לפילוסופיה בקאל פולי, שג'רדס עבד איתו. TED-Ed של לין לוקח על עצמו את הבעיות האתיות בתכנות מכוניות בנהיגה עצמית כדי לקבל החלטות בחיים או מוות, מוצג כניסוי מחשבה בסרטון זה:

אם היינו נוהגים במכונית זו במכונית במצב ידני, לא משנה מה הדרך בה היינו מגיבים, זו הייתה תגובה, לא החלטה מכוונת ", אומר לין בסרטון. בהתאם לכך, היה מובן שהיא" מהלך מבוהל יצרי ללא מחשבה מוקדמת או זדון. "

האפשרות האמיתית מאוד למקרי מוות כתוצאה לא מתקלה אלא כתוצאה מהמכוניות בעקבות התכנות שלהן היא שגורמת לחשוב כל כך לחשוב קדימה כיצד להתמודד עם מה שלין מתאר כ"אלגוריתם מיקוד מסוגו ".

הוא מסביר כי תוכניות כאלה "יעדיפו או יפלו באופן שיטתי סוג מסוים של אובייקטים להתרסק אליהם."

כתוצאה מכך, מי שנמצא ב"רכבי היעד יסבול מההשלכות השליליות של האלגוריתם הזה ללא אשמתם. "

הוא אינו מציע פתרון לבעיה זו, אך זו אזהרה שאנו חייבים לחשוב כיצד אנו מתמודדים עם זה:

"איתור סיבובי השיער המוסריים הללו כעת יסייע לנו לתמרן את הדרך הלא מוכרת של אתיקה טכנולוגית, ולאפשר לנו לשוט בביטחון ובמצפון לעתידנו האמיץ החדש."

זה עשוי להוכיח אתגר גדול עוד יותר לנווט מאשר בכבישים שעליהם נדרשים הרכבים האוטונומיים.


צפו בסרטון: שאטל האוטונומי הראשון בישראל (דֵצֶמבֶּר 2021).