כש-AI טועה, מי משלם את המחיר?
טעויות של בינה מלאכותית יכולות לעלות ביוקר, אדם אחד כבר בילה 10 ימים במעצר לא מוצדק. מהשלכות משפטיות ועד אתיות - למה אנחנו עדיין חייבים את שיקול הדעת האנושי?
מאת: עו"ד איתן צפריר
שמעתם על המקרה של ניג'יר פארקס? בפברואר 2019 גבר שחור בן 33 נעצר לאחר שזוהה כמי שגנב מחנות וניסה לפגוע בשוטר עם רכב. פארקס שהה עשרה ימים בתא מעצר, עד שהתברר כי בעת האירוע הוא בכלל היה במרחק של 30 מיילים ממקום הפשע. איך זה קרה? תוכנת זיהוי שגתה. פארקס תבע את המשטרה על רשלנות בשל הסתמכות על טכנולוגיית זיהוי פנים פגומה, זכה בפיצוי בסך חמישה מיליון דולר והראה מהן ההשלכות המשפטיות והכספיות של הסתמכות עיוורת על טכנולוגיות שמערבות בינה מלאכותית.
AI יכולה לבצע עבורנו מגוון משימות שחורות ולחסוך המון זמן ביומיום, אך נראה כי היתרונות הללו גורמים לנו לשכוח שיש גם סכנות בטכנולוגיה. ממש מדי יום הבינה המלאכותית הופכת למשוכללת יותר, זוכה לאמון רב יותר וסופחת עוד ועוד תחומי פעילות עסקיים; במקביל גדל הסיכון להסתבכויות.
ביטחון מופרז ב-AI
אנחנו סומכים על הבינה ומשתמשים ב-AI בביטחון מופרז, שגורם לנו להפעיל פחות ופחות שיקול דעת. אט אט אנחנו מתמסרים באופן מודע ומלא למכונה עד שנוותר על קבלת החלטה אנושית. זוהי מגמה שצוברת תאוצה ובה בינה מלאכותית הופכת מגורם המספק תובנות ונתונים ומסייע בקבלת החלטות, למקבלת החלטות במקום הגורם האנושי.
אך יש מצבים שבהם חייבים פיקוח אנושי כדי לצמצם ולמנוע חשיפות משפטיות ואפילו מעשים לא מוסריים. מערכות AI הרי מאומנות על נתונים, ואם הנתונים מכילים הטיות (לדוגמה, הטיה מגדרית או גזעית), המערכת תשכפל ואף תגביר אותן בקבלת ההחלטות שלה. בינה מלאכותית מנתחת נתונים ומציגה תובנות, ואלה ישפיעו בעתיד צורה משמעותית על חיי אדם בבריאות, משפט או פיננסים. איהיה צורך להבין כיצד המערכת הגיעה להחלטה כזו או אחרת, ומעורבות אנושית שתעזור לפרש את ההחלטות ולספק הסברים, תאפשר לבנות אמון במערכת ובתוצאותיה.
אפשר לתת למכונה את הכוח לקבל החלטות, אך חשוב לשמר את הסמכות האנושית בצמתים קריטיים, הן בהיבטים של אתיקה והן בהיבטים של תוצאה. מסקנה זו קיבלה חיזוק לאחרונה בדו"ח ביניים של צוות ממשלתי בין-משרדי לעניין בינה מלאכותית בסקטור הפיננסי, בו הוצע לשמור על מעורבות אנושית בהחלטות מהותיות בסיכון גבוה. מסתמן כי מדובר במתווה לצמצום חשיפות משפטיות במקרים שהרגולטור או בית המשפט עשויים להגדיר היעדר החלטה אנושית כהתרשלות.
איך יודעים מתי נדרשת מעורבות אנושית?
ישנם כמה מבחנים שיכולים לקבוע זאת. קודם כל יש לשקול את הצורך בהתאם למערכת שמשמשת את הארגון – האם יש לה יכולת הסברה והשגה על החלטותיה (חלופות מפצות)?. אם כן, ניתן להסתפק במעורבות אנושית לגבי החלטות בסיכון גבוה בלבד.
בנוסף, יש לשקול מעורבות אנושית ככלי בקרה על החלטות שליליות. למשל החלטות של סירוב אשראי יחייבו ביקורת אנושית. כאן בעצם נעשית הבחנה בין המלצות תומכות החלטה לבין ההחלטות עצמן – אם בסוף הגורם האנושי מקבל את ההחלטה, אפשר לצמצם את דרישת המעורבות האנושית להיבטים של בקרה ופיקוח כלליים על תפקוד המערכת בלבד וכך גם לצמצם את דרישת הביקורת בדיעבד.
דרך פעולה נוספת היא להגדיר שמעורבות של גורם אנושי תידרש בהחלטות בתחומים בהם נדרש רישיון מקצועי כמו ייעוץ השקעות, עריכת דין, ייעוץ פנסיוני, רפואה ועוד. היעדר מעורבות אנושית בקבלת החלטות בתחומים אלה עשויה להיתפס כהפרת הדין ודרישת הרישיון. זה לא רק עניין פורמלי, אלא ממש עניין מהותי שכן במקצועות כאלה מתקיימת חובת נאמנות של בעל רישיון כלפי לקוחות. בסופו של דבר, ככל שההחלטות הן קריטיות יותר או שיש הסתברות גבוהה שהמערכת עלולה לטעות, כך תידרש מעורבות אנושית רבה.
לאזן את הדינמיקה המורכבת
יש סיכונים ב-AI וחשוב לזכור זאת בעת השימוש בטכנולוגיה. חשוב גם לדעת להתמודד איתם: כל חברה צריכה לקבוע מדיניות לניהול סיכונים במקרים של כישלון או שגיאה במערכת, כולל תהליכים במקרה של חריגה מהסטנדרטים או פגיעה בזכויות הפרט. כדי לעשות זאת כראוי חברות המפתחות טכנולוגיות בינה מלאכותית או משתמשות בהן יקימו צוותי פיקוח שיהיו אחראים לבדוק את התהליכים וההשלכות של המערכות. ניתן להקים גם מנגנון שנותן למשתמשים אפשרות לספק משוב על תהליכים והמלצות המתקבלות על ידי המערכות, וכך לזהות בעיות ולשפר את המודלים תוך כדי עדכון המידע והנתונים במערכת.
אבל זה לא מסתיים בזה: חשוב לקיים הדרכות עובדים על אופן השימוש הנכון במערכות AI ולתת הנחיות ברורות לגבי הזנת מידע רגיש, ואף להטמיע בקרות ארגוניות שיעזרו למנוע הזנת מידע שגוי או מטעה למערכות. יש גם לבצע בדיקות נאותות מול הספק כדי להבטיח את איכות המידע ששימש לאימון המערכת, לתת הסברים ללקוחות על אופן פעולת המערכת ומטרותיה ולהימנע ממצגים מטעים או הסתרת מידע מהלקוחות.
יש דינמיקה מורכבת בין בינה מלאכותית לאנושות. כיום אנחנו עוד לומדים איך ליהנות מיעילות וחדשנות חסרות תקדים, ובו בזמן לא לאבד אחיזה בפיקוח האנושי. בעולם שבו AI הולכת ותופסת מקום בהחלטות קריטיות בתחומים כמו פיננסים, בריאות ומשפט, השאלה אינה רק "כמה אפשר להסתמך על טכנולוגיה?", אלא גם "עד כמה אנו מוכנים לוותר על אחריות אנושית?". שימור שיקול הדעת האנושי בצמתים קריטיים אינו רק אמצעי הגנה משפטי – הוא בחירה אתית שמבקשת לוודא שהמכונה תשרת אותנו, ולא להפך.
*הכותב הוא שותף רגולציה, קומפליינס ו-AI במשרד עורכי דין פירון