- This event has passed.
בינה מלאכותית בשירותי ממשל – נקודות מבט: משפט, אתיקה, רווחה וטכנולוגיה
26/01/2021 14:00 — 15:45
כנס בינה מלאכותית בשירותי ממשל –
נקודות מבט: משפט, אתיקה, רווחה וטכנולוגיה
ביום 26.1.21 קיים המכון הישראלי למדיניות טכנולוגיה, בשיתוף המעבדה למשפט מדעי המידע ואתיקה דיגיטלית שבפקולטה למשפטים באוניב’ בר-אילן, כנס בנושא שבנדון. בראשית הכנס הוצגה עבודתנו בנושא על-ידי ד”ר סיון תמיר, מחברת הדו”ח. בהמשך הובאו תגובות מגיבים ממספר נקודות מבט: הזווית הממשלתית (משפטית-רגולטורית), זווית הרווחה והזווית התאגידית-טכנולוגית.
רקע:
הסוגייה שלפתחנו עוסקת בנושא חשוב ביותר, הצפוי ללוות אותנו בשנים הבאות: האם ובאיזה אופן ראוי לשלב כלים מבוססי בינה מלאכותית (AI) בעבודה של גורמי ממשל בישראל? בעולם, מצוי תחום זה במגמת עליה. כך לדוגמא, בשנה שעברה יצא דו”ח שסקר שימושים ב – AI ב – 150 סוכנויות פדראליות בארה”ב, ומצא 170 תוכנות שונות שמשמשות את הסוכנויות שנסקרו, אשר הוטמעו לצורך מגוון פעולות, כגון: תעדוף פעולות אכיפה, הקצאת משאבים, פיקוח, שירות לאזרח, ותמיכה בקבלת החלטות שיפוטיות.
גורמים רבים רואים ביוזמות להטמעת כלי AI בשירות הציבורי, פוטנציאל משמעותי לשיפור עבודת גורמי הממשל. בין יתרונות ההטמעה ניתן למנות שיקולים של ייעול והפחתת עלויות של שירותי הממשל, למשל, באמצעות אוטומציה של פעולות אדמיניסטרטיביות; שיפור בהקצאת משאבים; ומיקוד מאמצי אכיפה. נוסף על אלה, נהוג לייחס לכלי AI גם יתרונות מהותיים, כמו שיפור איכות ההחלטות והגדלת האפקטיביות של עבודת גורמי המקצוע. תוצאה מיטבית זו מתאפשרת באמצעות יכולותיו של כלי AI להתגבר על מגבלות אנושיות, כמו הטיות בקבלת החלטות, או קושי בזיהוי דפוסים המבוססים על עיבוד נתוני-עתק. מימוש החזון הזה מבוסס במידה רבה, על מיצוי הכוח הטמון בניתוח של נתוני-העתק שבידי המדינה, על רשויותיה השונות. דהייינו, רתימת נתוני-העתק הללו למשימת הרשות השלטונית בהתאם לסמכותה, עיבודם ולמידה מהם.
מנגד, השימוש בכלי AI על-ידי הרשות השלטונית, טומן בחובו גם לא מעט קשיים, מעמיד בסכנה מגוון זכויות פרט ואזרח, והטמעתו באופן מיטבי בעבודה הרשות – כרוכה במגוון אתגרים ומחייבת גורמי ממשל להתמודד עם שאלות עומק חשובות ומורכבות. למשל: כיצד לעצב אלגוריתמים וממשקי-משתמש באופן שלא יוביל לטעויות, ינציח אפליה, או ייצור הטיות חדשות? האם נכון להשתמש למטרה נתונה באלגוריתם תומך-החלטה, מייעץ בעיקרו, או באלגוריתם-מחליט? מה גובר – שיקול הדעת האנושי, או זה של האלגוריתם? מהם הגבולות הראויים למיקור-החוץ של משימת הרשות השלטונית לספקים פרטיים, חוץ-ממשלתיים? האם הרשות הותירה אפשרות למעורבות אנושית בתהליך (Human-in-the-loop), או לפיקוח על עבודת האלגוריתם ותוצריו (Human-over-the-loop)? האם האלגוריתם שקוף, או ניתן להסברה לפרטים המושפעים מהחלטות המתקבלות על-ידו? ואם לא – כיצד יעמוד האלגוריתם בחובות משפטיות, כמו חובת ההנמקה או הבטחת הליך הוגן? כיצד נבטיח את אמון הציבור במוסדות הממשל ובלגיטימיות של פעולותיהם כשהן מונחות בינה מלאכותית? ולבסוף, שאלה יסודית שעל הרשות לשאול עצמה טרם יציאתה לדרך ההטמעה של כלי AI בעבודת הממשל/הרשות המנהלית: האם השימוש ב – AI לצורך ביצוע פונקציות מנהליות, הינו מכח הסמכה שבחוק? לכל אלה ועוד התייחס הדו”ח נשוא הדיון זה.
להלן תמצית דברי המגיבים שהשתתפו בכנס:
ד”ר יובל רויטמן – ראש אשכול רגולציה, ייעוץ וחקיקה (המחלקה למשפט כלכלי) משרד המשפטים:
מבחין בין רגולציה מגיבה המתייחסת למגמות שוק שכבר קיימות, לבין רגולציה מקדמית הבאה להסדיר מראש פעילות ואף לאפשר את קיומה בשוק. בעת הזו, בתחום הבינה המלאכותית, יש עיסוק ומחשבה על שני סוגי הרגולציה. אנחנו עוסקים בתחבורה אוטונומית למשל, בעניינה כבר פורסם תזכיר חוק. משרד המשפטים אף נערך לבחינת רגולציה על טכנולוגיות בתחום הפיננסיים המבוססות על בינה מלאכותית ואף פורסם קול קורא לעבודה בנושא זה.
הדיון היום בדו”ח של המכון הישראלי למדיניות טכנולוגיה, הוא למעשה על הממשלה כצרכנית של טכנולוגיית בינה מלאכותית. חלק מהאתגרים בשימוש בטכנולוגיה זו משותפים לממשלה ולמגזר הפרטי, וחלקם – ייחודיים לממשלה. המשפט המנהלי ידע עד היום להתמודד עם התפתחויות טכנולוגיות. הבינה המלאכותית מייצרת אתגר משמעותי המזמין חשיבה מחדש על עקרונות המשפט המנהלי. כך למשל, שאלה מרכזית שאנו מתחילים ממנה בחשיבה, היא שאלת ההסמכה בהקשר של קבלת החלטות המסתייעות בטכנולוגיה של בינה מלאכותית, או מבוססות על הטכנולוגיה האמורה.
עו”ד שרית פלבר – מרכזת תחום הבינה המלאכותית, אשכול רגולציה, ייעוץ וחקיקה (המחלקה למשפט כלכלי) משרד המשפטים:
הדו”ח מאפשר למעשה להיכנס לעומקו של הדיון הזה. הוא מציג באופן חשוב כיצד מאפייני הבינה המלאכותית מאתגרים את עקרונות היסוד של המשפט המנהלי. לעניין הסמכות, תהליך קבלת ההחלטה – הרשות אינה יכולה להתפרק משיקול הדעת שניתן לה, ללא הסמכה. נדרשת גם תשתית ראייתית, כזו המסתמכת על ראיות מנהליות (נימוקים, סבירות ההחלטה, אי-שרירותיות וכיו”ב). סבורים שלא צריך לדחות את השימוש בטכנולוגיה אך גם לא לקבל אותה על האיזונים המוטמעים בה, אלא לבחון עלות-תועלת מתוך גישה של מציאת איזונים לצורך הגנה על האינטרסים שעליהם המשפט המינהלי מבקש להגן. מסכימים בהחלט עם האמירה בדו”ח, לפיה יש צורך באוריינות טכנולוגית של עובדי המנהל.
מבחינת נושא ההסמכה, ניתן לראות בכך כלי רגולטורי של המחוקק. כלי המאפשר הכנסת איזונים, כגון: הגדרת תנאי סף לכניסת הטכנולוגיה לשימוש, לפי קריטריונים כמו רגישות הנושא; קביעת מאגרי מידע שיהיו זמינים, או לא, לשימוש; חובת הנמקה אפקטיבית; והסברתיות. הארכיטקטורה של הטכנולוגיה, האיזונים, יהיו של האדם מעצב הטכנולוגיה. עלינו לזכור שאין רִיק רגולטורי כשמדובר בטכנולוגיה ושהטכנולוגיה תכלול בתוכה איזונים – והשאלה היא, האם אלה יתבססו על דיון ציבורי או על האיזונים של מעצבי הטכנולוגיה. לכן, חובה להתקדם בחשיבה על הנושא (מפנה לספרו של Lawrence Lessig, “Code is Law”). מזכירה את מערכת הבינה המלאכותית למעקב אוטומטי אחר הונאות בקצבאות רווחה ומיסים שיושמה באופן כושל בשירותי הרווחה בהולנד – על רקע זה נאלצה הממשלה ההולנדית להתפטר לאחרונה.
ד”ר אבישי בניש – ביה”ס לעבודה סוציאלית ורווחה חברתית, האוניברסיטה העברית:
רואה בבינה מלאכותית תועלות, כמו גם סיכונים. השינוי הגדול הוא, שלא מדובר ב’בירוקרט-על’ אלא בקפיצה איכותית המשנה את הטבע והאופי של קבלת החלטות המנהל. קיים מתח בתחום הרווחה שעולה גם בהקשר הזה: האם הטכנולוגיה תשמש לתמיכה, או לשליטה וענישה? ככל שנשתמש בבינה מלאכותית למיצוי זכויות, נספק תמיכה. ככל שניישמה לצרכי הגברת מניעת הונאות, נקדם שליטה וענישה. מזכיר את דו”ח הדווח המיוחד של האו”ם, Philip Alston, שטבע המונח ‘The Digital Welfare State’, אשר מצביע על מגמות של שימוש בטכנולגיה לצרכי הקשחת דרישות, מעקב וענישה.
סבור עוד, כי יש לגבש זכות שלא להיות נתין של האלגוריתם. זוהי סוגייה חוקתית מן המעלה הראשונה. מדוע אין זכות opt-out? נקודה חשובה נוספת, מצויה בלגיטימציה של קבלת החלטות על ידי רשויות המדינה, ומידת הלגיטימיות של העברת הכח הזה למומחי הטכנולוגיה (אשר לרוב גם מועסקים באמצעות חברות פרטיות). כח רב מועבר במבנה החדש למתכנתים, אולם מתכנתים אלו בדרך כלל נעדרים ‘אוריינות מנהלית’ (דהיינו, הבנה והפנמה של הנורמות ודרישות האחריותיות המצופים מעובדי מינהל כנאמני הציבור). נקודת קושי נוספת היא בעיית אי-ההסברתיות, אשר עשויה לפגוע ביכולת לדרוש ולקבל דין וחשבון, לבצע ביקורת אנושית ולאפשר ביקורת שיפוטית. בשני המקרים שלעיל זכות העַרַר מאותגרת. לאור זאת, לא ברור האם קבלת החלטה דיגיטלית תגדיל את אמון הציבור במערכת הציבורית, או תקטין אותו? שאלה נוספת שעלינו לשאול עצמינו, היא: מדוע רווחה תחילה? מדוע נבחרה דווקא זירת הרווחה ליישום ראשוני ורחב היקף של מערכות בינה מלאכותית? דהיינו, מדוע מתחילים ניסויים חברתיים גדולים דווקא בתחום הרווחה, בו האוכלוסייה הרגישה ביותר? מדוע אין מטמיעים מערכות אלה במקביל גם במערכות מינהליות הבאות במגע עם כלל האוכלוסיה או עם אוכלוסיות חזקות, כגון ברשות המסים או במגזר הפיננסי?
עו”ד בן חקלאי – יועץ משפטי אזורי אפריקה והמזרח התיכון (לרבות ישראל), מייקרוסופט:
יישומי בינה מלאכותית הופכים בהדרגה לחלק אינהרנטי מחיי כולנו, גם בתחום האישי וגם בעולם העסקי-מסחרי. חסר גוף משמעותי של רגולציה בתחום, מה שמוביל לכניסתן של חברות פרטיות אל תוך הוואקום הזה, כשהן מחילות על עצמן, באופן וולונטרי, רגולציה עצמית. בסביבה העסקית והפוליטית בה פועלות חברות הטכנולוגיה בעולם המערבי, הסיכון באי אימוץ רגולציה עצמית ממין זה הינו גבוה ומשמעותי – עובדה, המובילה להגברת פעילות החברות בתחום זה. בהתאם, חברות מאמצות מדיניות מקיפה וכללי ציות בתחומי האתיקה. יעילות התוכניות נגזרת מהתאמתן לפעילותן העסקית של החברות, ממבנה התוכנית ,וממחוייבות הנהלת החברות להטמעתן בפעילותן העסקית – גם במחיר של ויתור על עסקאות ו/או לקוחות מובילים. כך נעשה גם במיקרוסופט, שם פועלים להטמיע את העקרונות האתיים שאימצה בקרב כלל עובדי החברה ובמסגרת פעילותה העסקית.