בינה מלאכותית בשירותי ממשל – נקודות מבט: משפט, אתיקה, רווחה וטכנולוגיה

 

כנס בינה מלאכותית בשירותי ממשל –

נקודות מבט: משפט, אתיקה, רווחה וטכנולוגיה

 

ביום 26.1.21 קיים המכון הישראלי למדיניות טכנולוגיה, בשיתוף המעבדה למשפט מדעי המידע ואתיקה דיגיטלית שבפקולטה למשפטים באוניב’ בר-אילן, כנס בנושא שבנדון. בראשית הכנס הוצגה עבודתנו בנושא על-ידי ד”ר סיון תמיר, מחברת הדו”ח. בהמשך הובאו תגובות מגיבים ממספר נקודות מבט: הזווית הממשלתית (משפטית-רגולטורית), זווית הרווחה והזווית התאגידית-טכנולוגית.

רקע:

הסוגייה שלפתחנו עוסקת בנושא חשוב ביותר, הצפוי ללוות אותנו בשנים הבאות: האם ובאיזה אופן ראוי לשלב כלים מבוססי בינה מלאכותית (AI) בעבודה של גורמי ממשל בישראל? בעולם, מצוי תחום זה במגמת עליה. כך לדוגמא, בשנה שעברה יצא דו”ח שסקר שימושים ב – AI ב – 150 סוכנויות פדראליות בארה”ב, ומצא 170 תוכנות שונות שמשמשות את הסוכנויות שנסקרו, אשר הוטמעו לצורך מגוון פעולות, כגון: תעדוף פעולות אכיפה, הקצאת משאבים, פיקוח, שירות לאזרח, ותמיכה בקבלת החלטות שיפוטיות.

גורמים רבים רואים ביוזמות להטמעת כלי AI בשירות הציבורי, פוטנציאל משמעותי לשיפור עבודת גורמי הממשל. בין יתרונות ההטמעה ניתן למנות שיקולים של ייעול והפחתת עלויות של שירותי הממשל, למשל, באמצעות אוטומציה של פעולות אדמיניסטרטיביות; שיפור בהקצאת משאבים; ומיקוד מאמצי אכיפה. נוסף על אלה, נהוג לייחס לכלי AI גם יתרונות מהותיים, כמו שיפור איכות ההחלטות והגדלת האפקטיביות של עבודת גורמי המקצוע. תוצאה מיטבית זו מתאפשרת באמצעות יכולותיו של כלי AI להתגבר על מגבלות אנושיות, כמו הטיות בקבלת החלטות, או קושי בזיהוי דפוסים המבוססים על עיבוד נתוני-עתק. מימוש החזון הזה מבוסס במידה רבה, על מיצוי הכוח הטמון בניתוח של נתוני-העתק שבידי המדינה, על רשויותיה השונות. דהייינו, רתימת נתוני-העתק הללו למשימת הרשות השלטונית בהתאם לסמכותה, עיבודם ולמידה מהם.

מנגד, השימוש בכלי AI על-ידי הרשות השלטונית, טומן בחובו גם לא מעט קשיים, מעמיד בסכנה מגוון זכויות פרט ואזרח, והטמעתו באופן מיטבי בעבודה הרשות – כרוכה במגוון אתגרים ומחייבת גורמי ממשל להתמודד עם שאלות עומק חשובות ומורכבות. למשל: כיצד לעצב אלגוריתמים וממשקי-משתמש באופן שלא יוביל לטעויות, ינציח אפליה, או ייצור הטיות חדשות? האם נכון להשתמש למטרה נתונה באלגוריתם תומך-החלטה, מייעץ בעיקרו, או באלגוריתם-מחליט? מה גובר – שיקול הדעת האנושי, או זה של האלגוריתם? מהם הגבולות הראויים למיקור-החוץ של משימת הרשות השלטונית לספקים פרטיים, חוץ-ממשלתיים? האם הרשות הותירה אפשרות למעורבות אנושית בתהליך (Human-in-the-loop), או לפיקוח על עבודת האלגוריתם ותוצריו (Human-over-the-loop)? האם האלגוריתם שקוף, או ניתן להסברה לפרטים המושפעים מהחלטות המתקבלות על-ידו? ואם לא – כיצד יעמוד האלגוריתם בחובות משפטיות, כמו חובת ההנמקה או הבטחת הליך הוגן? כיצד נבטיח את אמון הציבור במוסדות הממשל ובלגיטימיות של פעולותיהם כשהן מונחות בינה מלאכותית? ולבסוף, שאלה יסודית שעל הרשות לשאול עצמה טרם יציאתה לדרך ההטמעה של כלי AI בעבודת הממשל/הרשות המנהלית: האם השימוש ב – AI לצורך ביצוע פונקציות מנהליות, הינו מכח הסמכה שבחוק? לכל אלה ועוד התייחס הדו”ח נשוא הדיון זה.

להלן תמצית דברי המגיבים שהשתתפו בכנס:

ד”ר יובל רויטמן – ראש אשכול רגולציה, ייעוץ וחקיקה (המחלקה למשפט כלכלי) משרד המשפטים:

מבחין בין רגולציה מגיבה המתייחסת למגמות שוק שכבר קיימות, לבין רגולציה מקדמית הבאה להסדיר מראש פעילות ואף לאפשר את קיומה בשוק. בעת הזו, בתחום הבינה המלאכותית, יש עיסוק ומחשבה על שני סוגי הרגולציה. אנחנו עוסקים בתחבורה אוטונומית למשל, בעניינה כבר פורסם תזכיר חוק. משרד המשפטים אף נערך לבחינת רגולציה על טכנולוגיות בתחום הפיננסיים המבוססות על בינה מלאכותית ואף  פורסם קול קורא לעבודה בנושא זה.

הדיון היום בדו”ח של המכון הישראלי למדיניות טכנולוגיה, הוא למעשה על הממשלה כצרכנית של טכנולוגיית בינה מלאכותית. חלק מהאתגרים בשימוש בטכנולוגיה זו משותפים לממשלה ולמגזר הפרטי, וחלקם – ייחודיים לממשלה. המשפט המנהלי ידע עד היום להתמודד עם התפתחויות טכנולוגיות. הבינה המלאכותית מייצרת אתגר משמעותי המזמין חשיבה מחדש על עקרונות המשפט המנהלי. כך למשל, שאלה מרכזית שאנו מתחילים ממנה בחשיבה, היא שאלת ההסמכה בהקשר של קבלת החלטות המסתייעות בטכנולוגיה של בינה מלאכותית, או מבוססות על הטכנולוגיה האמורה.

עו”ד שרית פלבר – מרכזת תחום הבינה המלאכותית, אשכול רגולציה, ייעוץ וחקיקה (המחלקה למשפט כלכלי) משרד המשפטים:

הדו”ח מאפשר למעשה להיכנס לעומקו של הדיון הזה. הוא מציג באופן חשוב כיצד מאפייני הבינה המלאכותית מאתגרים את עקרונות היסוד של המשפט המנהלי. לעניין הסמכות, תהליך קבלת ההחלטה – הרשות אינה יכולה להתפרק משיקול הדעת שניתן לה, ללא הסמכה. נדרשת גם תשתית ראייתית, כזו המסתמכת על ראיות מנהליות (נימוקים, סבירות ההחלטה, אי-שרירותיות וכיו”ב). סבורים שלא צריך לדחות את השימוש בטכנולוגיה אך גם לא לקבל אותה על האיזונים המוטמעים בה, אלא לבחון עלות-תועלת מתוך גישה של מציאת איזונים לצורך הגנה על האינטרסים שעליהם המשפט המינהלי מבקש להגן. מסכימים בהחלט עם האמירה בדו”ח, לפיה יש צורך באוריינות טכנולוגית של עובדי המנהל.

מבחינת נושא ההסמכה, ניתן לראות בכך כלי רגולטורי של המחוקק. כלי המאפשר הכנסת איזונים, כגון: הגדרת תנאי סף לכניסת הטכנולוגיה לשימוש, לפי קריטריונים כמו רגישות הנושא; קביעת מאגרי מידע שיהיו זמינים, או לא, לשימוש; חובת הנמקה אפקטיבית; והסברתיות. הארכיטקטורה של הטכנולוגיה, האיזונים, יהיו של האדם מעצב הטכנולוגיה. עלינו לזכור שאין רִיק רגולטורי כשמדובר בטכנולוגיה ושהטכנולוגיה תכלול בתוכה איזונים – והשאלה היא, האם אלה יתבססו על דיון ציבורי או על האיזונים של מעצבי הטכנולוגיה. לכן, חובה להתקדם בחשיבה על הנושא (מפנה לספרו של Lawrence Lessig, “Code is Law”). מזכירה את מערכת הבינה המלאכותית למעקב אוטומטי אחר הונאות בקצבאות רווחה ומיסים שיושמה באופן כושל בשירותי הרווחה בהולנד – על רקע זה נאלצה הממשלה ההולנדית להתפטר לאחרונה.

ד”ר אבישי בניש – ביה”ס לעבודה סוציאלית ורווחה חברתית, האוניברסיטה העברית:

רואה בבינה מלאכותית תועלות, כמו גם סיכונים. השינוי הגדול הוא, שלא מדובר ב’בירוקרט-על’ אלא בקפיצה איכותית המשנה את הטבע והאופי של קבלת החלטות המנהל. קיים מתח בתחום הרווחה שעולה גם בהקשר הזה: האם הטכנולוגיה תשמש לתמיכה, או לשליטה וענישה? ככל שנשתמש בבינה מלאכותית למיצוי זכויות, נספק תמיכה. ככל שניישמה לצרכי הגברת מניעת הונאות, נקדם שליטה וענישה. מזכיר את דו”ח הדווח המיוחד של האו”ם, Philip Alston, שטבע המונח ‘The Digital Welfare State’, אשר מצביע על מגמות של שימוש בטכנולגיה לצרכי הקשחת דרישות, מעקב וענישה.

סבור עוד, כי יש לגבש זכות שלא להיות נתין של האלגוריתם. זוהי סוגייה חוקתית מן המעלה הראשונה. מדוע אין זכות opt-out? נקודה חשובה נוספת, מצויה בלגיטימציה של קבלת החלטות על ידי רשויות המדינה, ומידת הלגיטימיות של העברת הכח הזה למומחי הטכנולוגיה (אשר לרוב גם מועסקים באמצעות חברות פרטיות). כח רב מועבר במבנה החדש למתכנתים, אולם מתכנתים אלו בדרך כלל נעדרים ‘אוריינות מנהלית’ (דהיינו, הבנה והפנמה של הנורמות ודרישות האחריותיות המצופים מעובדי מינהל כנאמני הציבור). נקודת קושי נוספת היא בעיית אי-ההסברתיות, אשר עשויה לפגוע ביכולת לדרוש ולקבל דין וחשבון, לבצע ביקורת אנושית ולאפשר ביקורת שיפוטית. בשני המקרים שלעיל זכות העַרַר מאותגרת. לאור זאת, לא ברור האם קבלת החלטה דיגיטלית תגדיל את אמון הציבור במערכת הציבורית, או תקטין אותו? שאלה נוספת שעלינו לשאול עצמינו, היא: מדוע רווחה תחילה? מדוע נבחרה דווקא זירת הרווחה ליישום ראשוני ורחב היקף של מערכות בינה מלאכותית? דהיינו, מדוע מתחילים ניסויים חברתיים גדולים דווקא בתחום הרווחה, בו האוכלוסייה הרגישה ביותר? מדוע אין מטמיעים מערכות אלה במקביל גם במערכות מינהליות הבאות במגע עם כלל האוכלוסיה או עם אוכלוסיות חזקות, כגון ברשות המסים או במגזר הפיננסי?

עו”ד בן חקלאי – יועץ משפטי אזורי אפריקה והמזרח התיכון (לרבות ישראל), מייקרוסופט:

יישומי בינה מלאכותית הופכים בהדרגה לחלק אינהרנטי מחיי כולנו, גם בתחום האישי וגם בעולם העסקי-מסחרי. חסר גוף משמעותי של רגולציה בתחום, מה שמוביל לכניסתן של חברות פרטיות אל תוך הוואקום הזה, כשהן מחילות על עצמן, באופן וולונטרי, רגולציה עצמית. בסביבה העסקית והפוליטית בה פועלות חברות הטכנולוגיה בעולם המערבי, הסיכון באי אימוץ רגולציה עצמית ממין זה הינו גבוה ומשמעותי – עובדה, המובילה להגברת פעילות החברות בתחום זה. בהתאם, חברות מאמצות מדיניות מקיפה וכללי ציות בתחומי האתיקה. יעילות התוכניות נגזרת מהתאמתן לפעילותן העסקית של החברות, ממבנה התוכנית ,וממחוייבות הנהלת החברות להטמעתן בפעילותן העסקית – גם במחיר של ויתור על עסקאות ו/או לקוחות מובילים. כך נעשה גם במיקרוסופט, שם פועלים להטמיע את העקרונות האתיים שאימצה בקרב כלל עובדי החברה ובמסגרת פעילותה העסקית.

לצפייה בצילום האירוע לחץ כאן

בינה מלאכותית בשירותי ממשל – הטמעת מערכות לקבלת החלטות מבוססות-אלגוריתם בשירותי הרווחה

מערכת הרווחה קלטה לשורותיה לאחרונה עובדת סוציאלית חדשה, בשם בינה. בינה קיבלה גישה למאגרי המידע האישי הקיים במערכת אודות מטופלי רווחה, והיא שותפה בתהליכי קבלת החלטות לגביהם, כגון: קביעת זכאות לשעות סיעוד בבית המטופל, וקביעה האם ילד הוא קורבן להתעללות. בינה מוכיחה עצמה כעובדת יעילה ביותר, בעלת יכולת קוגניטיבית גבוהה המאפשרת לה להתגבר על כמויות גדולות של מידע, לעבדו, ולקבל החלטות בעניינם של מטופלי הרווחה שעל הטיפול בהם היא אמונה. החלטותיה של בינה ענייניות במרבית המקרים, אך לעיתים הן מונחות על-ידי רגשות הזדהות עם המטופלים או חמלה כלפיהם.

עכשיו במקום ‘בינה’, דמיינו לעצמכם מערכת בינה מלאכותית בעלת גישה לאותם מאגרי מידע, ובעלת יכולת עיבוד וניתוח של נתוני עתק (Big data), הצלבתם עם גופי נתונים נוספים, והקשת היקשים המאפשרים לה, תוך הסתייעות באלגוריתם, ייצור החלטה/פלט (output)  ניטראליים לכאורה, בזמן מהיר ובעניינם של מטופלי רווחה רבים. המערכת מקבלת החלטות או מסייעת לגורם האנושי בקבלתן, ביעילות ובעקביות רבה יותר מזו המאפיינת את עבודתה של בינה העו”ס. יתרה מכך, עבודתה של מערכת הבינה המלאכותית כה יעילה, עד שזו מאפשרת לעובדים  הסוציאליים לטפל במשימות מורכבות יותר, או להתפנות להתפתחות מקצועית אישית באמצעות הכשרות והשתלמויות שונות.

יש להניח כי המעבר מעובד בשר ודם – למכונה, ישפיע על שיפוטינו את אותה הסתייעות ויעורר בנו סקרנות ותהיות לגבי הדרכים בהן עשויה המכונה להועיל לנו יותר מן האדם-העובד, לצד חששות לגבי ההשלכות השליליות הפוטנציאליות שבכך, במיוחד בהקשר של הטיפול הרגיש בלקוחות מערכת הרווחה. מעבר כזה, ליישום טכנולוגיות מבוססות בינה מלאכותית בשירות לאזרח, מצריך מידה רבה של אֵמון מצדו של הציבור. אמון זה, כשלעצמו, נדרש בין היתר לשקיפות ולהבנתיות לגבי אופן פעולתן של טכנולוגיות מעין אלו.

המצב שתואר כאן אינו בדיוני כלל ועיקר, הוא לקוח היישר ממציאות חיינו בעידן הנוכחי. היצף נתוני העתק המאפיין את תקופתינו, בשילוב עם טכנולוגיות דיגיטליות מתקדמות ופיתוחם של כלי ניתוח וניבוי מבוססי בינה מלאכותית, מבשרים באופן בלתי נמנע על הגעתו של עידן המְשילות הדיגיטלית. כשהממשלה מאמצת ביטויים אלו של קדמה טכנולוגית, ומטמיעה אותם בתוך שירותיה לציבור האזרחים – חשוב להבטיח קיומו של אינטרס כפול: זה של הממשלה – בְּיִיעול עבודת מנגנון השירות לאזרח, וזה של האזרחים – בקבלת שירות משופר או מיטבי. אולם הבחירה (האמיצה והמאתגרת) של ממשלות בהטמעת מערכות בינה מלאכותית בשירות הציבורי, אינה מהווה אך ביטוי למדיניות ממשלתית של אימוץ חדשנות לטובת התייעלות, התאמה לקידמה וכיו”ב תועלות. היא מגיעה גם בתגובה לציפיית הציבור להשוואת רמת השירות, חדשנותו וממשקיו עם האזרח, לאלו המתקבלים מספקיות שירותים במגזר הפרטי.

ואומנם, המגמה ההולכת ומתגבשת כיום בממשלים של מדינות מפותחות, כולל במדינת ישראל, היא כזו המבטאת פתיחות כלפי רעיון הדיגיטציה של שירותים ממשלתיים והפיכתם ל’טכנולוגיים’ יותר, מתוך הכרה ביתרונות אימוץ החדשנות ברמת הממשל, ובהנחה כי אלו עולים בקנה אחד עם האינטרס הציבורי.

בשנים האחרונות, מהווה מערכת הרווחה את אחת מזירות היישום הרוֹוְחות יותר של הטמעת טכנולוגיות מוּנָעוֹת-נתונים (data-driven) ומבוססות בינה מלאכותית בשירות הציבורי. נסיונות בהטמעת מערכת קבלת החלטות מבוססות-אלגוריתם (Algorithmic Decision-Making; להלן – “מערכות “ADM) נעשים במגוון שירותי רווחה, במדינות שונות. מערכות אלו מפותחות לטובת שיפור וייעול תהליך קבלת החלטות, למגוון ייעודים במגזר הפרטי והציבורי. הן מסייעות לניתוח ותהליך קבלת ההחלטות האנושי ולעיתים, אף מחליפות את הגורם האנושי מקבל ההחלטות.

ניתן להצביע על שני תחומי יישום עיקריים של מערכות אלו בשירותי הרווחה, בעת הזו: האחד – תחום קצבאות הרווחה (קביעת זכאות לקצבאות, וזיהוי ואיתור הונאת קצבאות רווחה (welfare fraud)); והשני – בהגנה על ילדים ואוכלוסיות בסיכון (איתור ילדים קורבן להתעללות וזיהוי המשפחות לצורך נקיטת התערבות מוקדמת; ומניעת ניצול אוכלוסיות מוחלשות והדרדרותן לעבריינות).

בבריטניה למשל, יושמו המערכות בשירותי הרווחה, במידות שונות או מעורבות, של הצלחה וכישלון. מערכת  ADM הוטמעה בשירותי הרווחה במספר רשויות מקומיות, על מנת לספק הכוונה אוטומטית בתביעות זכאות (להטבות בשיכון ומיסי מועצה), למניעת התעללות בילדים ולהקצאת מקומות בבתי-הספר. השימוש במערכות אלו הופסק בשל חששות הנוגעים לפרטיות ואבטחת מידע, אי-היכולת של פקידי הרשות להבין את אופן פעולת המערכות, הקושי של תושבים בתקיפת ההחלטות האוטומטיות יצירות-המערכת, ולאחר שניתוח החיזוי/ניבוי (predictive analytics) על-ידי המערכת, גרם לעיכוב לא מוצדק בתשלומי רווחה (כשזו זיהתה תביעות בסיכון נמוך, ככאלה המצויות בסיכון גבוה). למרות זאת, במקומות אחרים בבריטניה הוטמעו מערכות ADM בהצלחה. כך למשל, במועצה המקומית Hillingdon, בדרום מערב לונדון, הוטמעה מערכת העושה שימוש בניתוח חיזוי למניעת ניצולם של ילדים וצעירים פגיעים. המערכת מנתחת מידע המתקבל ממקורות שונים (משטרה, מערכות הרווחה והבריאות, שירותי נוער, בתי-ספר וקבוצות בקהילה), לזיהוי אזורים גיאוגרפיים בסיכון גבוה. זיהוי זה מאפשר למועצה הפניית שירותים אינטנסיביים לתמיכה בנוער לאזורים אלו, על מנת להסיט אנשים צעירים ממסלול של אלימות ועבריינות. נסיונות דומים נעשו גם בארה”ב, בדנמרק ועוד.

יישום טכנולוגיות בינה מלאכותית במגזר הציבורי הוא תהליך רצוף אתגרים, זאת בעיקר בשל היותו חדש ולא-טבעי למערכת הממשלתית-ציבורית. אתגרים אלו, באים לידי ביטוי במספר מישורים: הטכנולוגי, החוקי, האתי, והחברתי. אתגרים אחרים, ספציפיים יותר, עולים בהקשר של עצם מיקור החוץ של שירותי רווחה באמצעות התקשרויות עם ספקי טכנולוגיה חוץ-ממשלתיים, מסחריים, מן המגזר הפרטי. בעוד שמטרת יישום טכנולוגיות מבוססות בינה מלאכותית היא הבאת חדשנות טכנולוגית והתייעלות אל תוך השירות הממשלתי לאזרח, ומיקור החוץ מספק פתרון למגבלות וחסמים בפיתוחן של מערכות ה – ADM בתוך השירות הציבורי (כאלה הקשורים במומחיות טכנולוגית מוגבלת של מפתחים ובאוריינות דיגיטלית לא-מספקת של נותני השירות) – הדבר מעורר, כאמור, אתגרים כגון: בעיית פרטיות ואֵמון, וקושי בזיהוי האחראי לנזק-יציר-מערכת ADM.

שילובה של מכונה, חכמה ככל שתהיה, במערכת החלטות ושיקולים המסורה באופן שגור לגורם האנושי, או החלפתה על-ידה כליל, הוא עניין מורכב במיוחד בשלב הבראשיתי בו מצוי יישום הטכנולוגיה. המעבר מ’בינה’ העובדת האנושית, אל חלופתה – הבינה המלאכותית, טומן בחובו מגוון יתרונות ותועלות, כמו גם חסרונות וקשיים מעשיים ואתיים.

על היתרונות והתועלות המעשיים, נמנים: אובייקטיביות וניטראליות, יעילות, אחריות, פרסונליזציה, מניעת (או מזעור) נזקים עתידיים, הגברת אמון הציבור, יתרונות מעשיים עבור העוסקים במלאכה – אנשי מערכת הרווחה, ועוד. החסרונות והקשיים הכרוכים בדיגיטציה של מערכת הרווחה ושימוש בכלים מבוססי-בינה-מלאכותית לצורך קבלת החלטות ביחס לבני-אדם, בייחוד בכל הקשור לזכויותיהם ולזכאויותיהם של מטופלי רווחה, הינן בעלות השפעה שלילית פוטנציאלית על מימושן של מגוון זכויות פרט, וביניהן:כבוד האדם, הזכות לאוטונומיה, הזכות לפרטיות, הזכות לבטחון סוציאלי, הזכות להוגנות (זכותו של נתין האלגוריתם ליחס שוויוני וצודק על-ידי מערכת, הזכות להליך הוגןפרוצדוראלי), ועוד. בנוסף על אלו, קיימים גם קשיים אתיים אינהרנטיים לאופיין של מערכות ADM, המשליכים על מימוש זכויות הפרט המנויות לעיל, או על ההגנה עליהן, כגון: אי-הסברתיות (Non-explicability) ובעיית הקופסא השחורה (‘Black box’ problem); קושי בהוכחת נזק על-ידי הנפגע מיישום מערכת ADM; ואחריות ואחריותיות.

על כל אלה ועוד, ניתן לקרוא בהרחבה בסקירה שהכנו, בתמיכת הג’וינט-אלכא. הסקירה אף כוללת המלצות תואמות-שלבי פיתוח והטמעה של מערכות ADM, עבור קובעי המדיניות השוקלים את אימוצן של טכנולוגיות אלו ויישומן בשירות הציבורי.