בינה מלאכותית, אחריות, ועתיד המשפט

AI
עו״ד מתן יעקובי

עו״ד מתן יעקובי

ד"ר לפילוסופיה אורי פריימן הוא שם מוכר בעולם הבינה המלאכותית (Artificial Intelligence, או בקיצור AI) ומתוקף תפקידו כחוקר במעבדת אתיקה של AI בטורונטו שבקנדה, הוא נחשף לכל החידושים האחרונים בתחום. עם כניסה של יותר ויותר טכנולוגיה מבוססת AI לעולם ה- Legal Tech (ליגל טק), התיישבנו איתו לשיחה חוצת יבשות על העתיד של עולם המשפט לאור כניסת אחת הטכנולוגיות הכי מרתקות שנוצרו פה אי פעם.

שלום ד"ר פריימן. ספר לקוראים על עצמך, איך הגעת לתחום הבינה המלאכותית?

אני בוגר תואר ראשון בפילוסופיה ותואר שני במידענות. כתבתי תזה שסוקרת סכנות טכנולוגיות לאנושות – שחלק ניכר ממנה הוקדש לבינה מלאכותית. בנוסף, עבדתי בסטארט-אפ בתחום הפינטק שפיתח מטבע קריפטוגרפי. הייתי חלק מצוות מחקר שתכנן את מודל המשילות של המטבע. זאת הייתה שנה נהדרת שפתחה לי את הראש בכיוון של בלוקצ'יין, גאו-פוליטיקה, ורגולציה. כשהגעתי לכתוב דוקטורט על ידע, ביזור, ואמון בטכנולוגיה (בתוכנית למדע, טכנולוגיה וחברה שבאוניברסיטת בר אילן), התמקדתי בשתי טכנולוגיות שכבר ריתקו אותי בעבר: בינה מלאכותית ובלוקצ'יין. בבלוקצ'יין, האמון נובע בין היתר מהארכיטקטורה של המערכת וקבלת ההחלטות בנוגע אליה. 

בבינה מלאכותית, התמקדתי בדוברים קוֹליים (Conversational AIs), כלומר בינות מלאכותיות שמדברות בשפה טבעית כמו סירי ואלקסה. צורת האמון היא יותר בין-אישית, כמו אמון בין שני בני אדם, כשמעצבי הטכנולוגיה מנסים לחקות צורות הבעה והתנהגות אנושיות. לאמון תפקיד מכונן בטכנולוגיות האלה ומה שאפשר לעשות איתן. כשסיימתי עם הדוקטורט, חיפשתי לעסוק בפילוסופיה ובטכנולוגיה ובער לי לעסוק בנושאים חברתיים רלוונטיים שאוכל גם להשפיע עליהם. זה היה אתגר גדול למצוא מקום טוב שייתן לי את כל זה. בשלב מסוים מצאתי את המעבדה לאתיקה ובינה מלאכותית בטורונטו, והתקבלתי כפוסט-דוקטורנט. זאת אוניברסיטה מעולה, יש פה אנשים מאוד חריפים, והרבה דברים מעניינים קורים בקנדה בתחום הזה.

כמי שחוקר את התחום, אתה חושב שזה עניין של זמן עד ש- 'רובוטים ישתלטו על העולם'?

למרות שזה תסריט מוכר ומצליח בז'אנר המדע הבדיוני, זה לא התסריט שאני חושש ממנו. אני לא חושב שבני אדם ישועבדו או שהקיום שלנו יפריע לרובוטים. החששות המרכזיים הם משינויים חברתיים בלתי-צפויים או אנטי-דמוקרטיים, או מבינה מלאכותית עתידית שלא תהיה מסונכרנת עם המטרות והערכים של האנושות. כלומר, אם אתה מציב לתוכנה מטרה מסוימת, היא תעשה מה שהיא צריכה כדי להשיג את המטרה. לדוגמה, אם תשאל את הבינה המלאכותית העתידית "כיצד לפתור את בעיית הפשפשים על החתול שלי" היא עלולה לענות לך: "שרוף את החתול". זהו אומנם פתרון יעיל אבל מן הסתם הוא לא הפתרון הראוי. אפשר גם לתת דוגמא יותר מוחשית: דמיין שניתוב מערכת החשמל בעיר מתבצע באמצעות בינה מלאכותית. בין היתר, מוגדרת לבינה המלאכותית שהיא צריכה לתעדף שימור עצמי שלה כדי לא לפגוע בתשתית החשמל. בעת חירום, כחלק מהאוטומציה, היא פונה לכל מקורות החשמל הזמינים ולוקחת אנרגיה מהגנרטור הקרוב והזמין ביותר עבורה, כשלמעשה ייתכן ומדובר בגנרטור החירום של בית החולים. הבינה המלאכותית העתידית הרי לא תקבל החלטות כמו בני אדם, והחשש הוא שהיא לא תהיה מסונכרנת עם מטרות אנושיות. ככל שההחלטות שלנו נשענות על יותר כוח מחשוב, ויותר ויותר מהן עוברות לבינה מלאכותית, כך פוטנציאל הסכנה הזו גדל.

האם יש לעורכי-דין סיבה לחשוש שבינות מלאכותיות יחליפו אותן?

אין לעורכי דין סיבה לחשוש יותר משבעלי מקצועות אחרים צריכים לחשוש. המקצועות משתנים ומתפתחים. בעידן האנלוגי, מתמחים במשרדי עורכי-דין היו חופרים בקלסרים ובספרים שבספריות. בעידן הדיגיטלי כבר לא נוברים בקלסרים ישנים אלא עושים שימוש במחשבים ובמנועי חיפוש. בעידן הבינה המלאכותית, כלי Legal Tech (טכנולוגיה בעולמות המשפט) יסייעו לעורכי הדין לא רק בגישה למידע, אלא ממש יתנו שירותים משפטיים. לאורך הזמן, הטכנולוגיה תאפשר לתת מענה פשוט, מהיר, זול, וכנראה שהרבה, הרבה, יותר יסודי – לעומת עורכי-דין אנושיים שינסו לבצע עבודה דומה. נראה שינוי בנגישות למידע, בדרך שבה מתבצע מחקר ובכל מה שקשור באוטומציה ובחוזים. אפילו נראה תחומים חדשים שגדולים על עורכי-דין אנושיים, כמו חיזוי דין. ואני מקווה שזה עניין של זמן עד שיחילו על זה רגולציה. זה יהיה לא הוגן שלפירמות מבוססות יהיו כלים ואמצעים שיאפשרו להם, למשל, לבסס את הטענות שלהם בצורה טובה יותר, מאשר לעורך דין מהמגזר בציבורי. "לא כוחות", מה שנקרא. במקרה הזה נגישות לטכנולוגיה היא בסופו של דבר נגישות לצדק.

אולי זו בעצם שאלה של אתיקה. האם לדעתך צריך להשאיר בינה מלאכותית מחוץ לעולם הזה? האם אין התנגשות אתית?

אני מניח שיהיו הרבה התנגשויות, ואני חושב שרגולטורים, עורכי דין, מפתחי טכנולוגיות ה-Legal Tech ומי שמשקיע בהם – חייבים להיות פרואקטיביים ולקחת בחשבון את הסכנות החברתיות שטמונות בהכנסת בינה מלאכותית לעולם המשפט. בלתי אפשרי להשאיר את מקצוע עריכת הדין במקום, אבל חייבים להתקדם באופן אחראי. אין ספק שהטכנולוגיה תיטמע גם בעולם המשפט – זו לא שאלה של אם, זו שאלה של איך. למשל, בשלב מסוים יעלה צורך לבחון פערים ביכולת בין פירמות עורכי דין שמשתמשות ב- Legal Tech לבין משרדי עורכי דין שלא, מה בינה מלאכותית מאפשרת, ועד כמה טכנולוגיה יכולה להכריע גורלות של תיקים ואנשים. העולם הולך לכיוון הזה ואין סיבה להישאר מאחור, אבל חייבים להיות זהירים. אנחנו חייבים להמשיך לשאול את עצמנו איך נטמיע את הטכנולוגיות האלה בצורה אחראית?

מה אתה אומר על הכנסת בינה מלאכותית לאולם בית המשפט?

מדובר במדרון חלקלק. אנחנו רואים שפלטים של אלגוריתמים מתקבלים כראיות בבתי-משפט, ואפילו מכניסים אנשים לכלא על לא עוול בכפם – כמו לאחרונה במקרה של מערכת זיהוי הירי שבשימוש משטרת שיקגו (קישור). הבינה המלאכותית גם נמצאת בצד של השיפוט וההמלצה לשחרור מוקדם. אדם שביצע עבירה, יכול לעמוד בפני שופט אנושי שיסתמך על מידע והמלצה שקיבל מאלגוריתם. האלגוריתם חישב שאנשים בעלי פרופיל כזה וכזה, כמו אזור גאוגרפי או עבר מסוים, שביצעו עבירה מסוימת, צריכים להיות מורחקים מהחברה כך וכך שנים, כי הם נוטים בסבירות גבוהה לחזור לפשוע. בפועל – ייתכן שאותו אדם, גם אם תואם לאותו פרופיל, לא יחזור לפשוע. כלומר, עולה שאלה אתית: מדוע מכיוון שאני נמנה על קבוצה סטטיסטית כלשהי, זה בסדר להניח שאני אפשע? אנחנו עלולים לחזק כשל מאוד נפוץ באתיקה שעוסקת בבינה מלאכותית: חיזוק של הטיות חברתיות. למעשה, בינה מלאכותית "שעשויה טוב" ונחשבת למדויקת עלולה לקבע עוולות חברתיות. מנגד, ניתן לטעון שהאלגוריתם לא שולח אנשים לכלא כי הוא עצבני או רעב בעת כתיבת גזר הדין (בהתאם למחקר שפורסם לפני כמה שנים – קישור).

האם ניתן לדעתך להסתכל על מערכת בינה מלאכותית בתור ישות משפטית נפרדת?

לא, אבל יש חתירה מסוכנת לכיוון הזה. כשמכנים בינה מלאכותית כיצירתית, בעלת חישה, מורכבת, ואוטונומית, אז יש מי שטוענים שמדובר בישות משפטית נפרדת. אבל מדובר במהלך בעייתי שמסיר את אחריות להשלכות השימוש בבינה ממי שיצר והטמיע אותה. ככה הם מסירים מעצמם את האחריות ומצביעים על הבינה המלאכותית כאחראית ולכן כאשמה. אנחנו פועלים שהמחוקקים ברחבי העולם יסדירו נושאים כאלה, כך שבמקרה של פגיעה באזרחים או כשלים אחרים, תהיה כתובת ברורה, אנושית או מוסדית, לנשיאת האחריות.

כמי שחוקר את התחום, האם אתה רואה את זה קורה כבר היום בסקטורים מסוימים? למשל רכבים אוטונומיים?

יצרניות הרכבים האוטונומיים כבר לוקחות אחריות על תאונות, כך שהאחריות לא משוייכת לנהג האנושי או לטכנולוגיה. מנגד, רק לאחרונה ראינו מהנדס של גוגל שטוען שהבינה המלאכותית שהם פיתחו היא ישות משפטית. זה משרת את חברות הטכנולוגיה, במיוחד בארה"ב שם הלובי של חברות הטכנולוגיה חזק במיוחד. בשם החדשנות והקידמה, הם קוראים לממשל שלא להתערב, תוך כדי שהם טוענים שהם יודעים הכי טוב איך להתנהל ושאפשר לסמוך עליהם עם רגולציה עצמית. שיוך של אחריות ליישות טכנולוגית יעשה להם חיים הרבה יותר קלים.

הכוח של חברות הטכנולוגיה הוא עצום לאין שיעור בפוליטיקה האמריקאית, ובמידה מסויימת, החקיקה בנוגע לבינה מלאכותית מתקדמת שם לאט בגלל זה. מנגד, אני מסתכל על אירופה ומתפעל ממה שהם עושים בתחום. גם שם יש פערים גדולים אבל לפחות ניתן לראות את העוצמה של האזרחים והמערכת השלטונית אל מול אותם הטיעונים – ואיך הם חושבים ביחד על פתרונות. אני מקבל את הרושם שיש הבנה בקרב התאגידים שפועלים באירופה שהדברים האלה צריכים לבוא במשותף. ה-GDPR היא דוגמה מעולה. שזה מאוד חלוצי ובא בתזמון נהדר. לפני ההטמעה היו קולות סקפטיים אבל בדיעבד, כמה שנים אחרי, המהלך הצעיד קדימה את חוקי הפרטיות והמידע בעולם. דברים דומים קורים עם בינה מלאכותית, ואני מאוד מקווה שלאורך הזמן רגולטורים לא יאפשרו לבינה מלאכותית להיות ישות משפטית.

לסיום, מה המסר שאנחנו צריכים לצאת איתו לדרך כשאנחנו מדברים על שילוב של בינה מלאכותית בתחומי החיים השונים?

בינות מלאכותיות צפויות לשנות באופן עמוק את החברה שלנו. בטכנולוגיה הזו, ערכים חברתיים נמצאים ומתבטאים בכל השלבים – מאיסוף הנתונים, דרך פיתוח האלגוריתמים והמודלים לאימון הבינה, ועד לנגישות לטכנולוגיה ולהשלכות השימוש בה. לכן, אנחנו חייבים לוודא שאנחנו זהירים ואחראיים בפיתוח ובהטמעה, ולוודא שהטכנולוגיה תטיב עם כל האוכלוסייה ובכל מקרה – שלא תפגע בקצוות שלה או תעמיק פערים מבניים. זו משימה שכולם צריכים לקחת בה חלק: מפתחי טכנולוגיות, משקיעים, מחוקקים, נציגי הציבור, ואנשי רוח וחברה.

גלילה לראש העמוד