הערות המכון בנושא הנחיית הרשות להגנת הפרטיות בנושא מערכות AI

בהמשך לדיונים אלו, הגיש המכון לרשות להגנת הפרטיות הערות מקצועיות לטיוטת ההנחיה שפורסמה בנושא, תוך מיקוד בהיבטים הטכנולוגיים המעשיים של הגנת פרטיות במערכות בינה מלאכותית.
בין הנקודות שציין המכון:
- הכרה במגבלות של טכניקות הגנת פרטיות: טכניקות מקובלות כגון פרטיות דיפרנציאלית, דה-דופליקציה או נתונים סינתטיים, עשויות שלא להתאים במדויק להקשרים של מערכות AI, ולעיתים אף לפגוע באמינות המודל – דבר שגם הוא עלול להשפיע על הפרטיות. לפיכך, יש צורך בהערכת עלות-תועלת של השימוש בהן.
- מקור נתוני האימון: מחסור בנתונים פתוחים איכותיים דוחף חברות לעשות
שימוש בנתוני משתמשים. נדרש להבהיר מהו שימוש לגיטימי במידע אישי לצורכי אימון מודלים, ומה גבולות השימוש במאגרים קיימים של בעלי שליטה. - התייחסות לשלב ה- fine-tuning: מדובר בשלב קריטי ובעל רגישות גבוההמבחינת פרטיות, הדורש הגנות מוגברות והתייחסות ייעודית.
- הקושי במימוש הזכות לתיקון או מחיקת מידע: בעוד שהטיוטה מתייחסת ליישום של זכויות אלה במערכות AI, בפועל קיימים אתגרים טכנולוגיים משמעותיים במחיקת מידע ממודלים מאומנים (unlearning). יש מקום להכיר באתגרים אלה ולשקול גם פתרונות חלקיים או מקורבים.
- עידוד פיתוח כלים טכנולוגיים למימוש זכויות פרט: מוצע לעודד פיתוחAPIs וכלים נוספים שיאפשרו לאנשים לממש את זכויותיהם בצורה יעילה – למשל שליחת שאילתות, הפקת דוחות פרטיות, או מנגנוני התאמה.
המכון מדגיש כי לצד שמירה על זכויות הפרט, חשוב להכיר במורכבויות הטכנולוגיות המובנות בתחום, ולעודד רגולציה ריאלית ועדכנית שתשקף את האיזון הדרוש בין פרטיות, חדשנות ויכולת יישום.
לקריאת המסמך המלא שהוגש לרשות כאן.
לקריאת סיכום השולחן העגול של המומחים והרגולטורים (באנגלית) כאן.
Published: 2025-06-09
Last Updated: 2025-06-09