פרוטוקול של ישיבת ועדה הכנסת העשרים-וחמש הכנסת 16 ועדת החוקה, חוק ומשפט 18/12/2023 מושב שני פרוטוקול מס' 203 מישיבת ועדת החוקה, חוק ומשפט יום שני, ו' בטבת התשפ"ד (18 בדצמבר 2023), שעה 9:15 סדר היום: << הצח >> הצעת חוק הגנת הפרטיות (תיקון מס' 14), התשפ"ב–2022 << הצח >> נכחו: חברי הוועדה: שמחה רוטמן – היו"ר יצחק קרויזר מוזמנים: עמית יוסוב עמיר – עו"ד במחלקת ייעוץ וחקיקה, משרד המשפטים לירון מאוטנר לוגסי – עו"ד, משרד המשפטים ראובן אידלמן – יועמ"ש, הרשות להגנת הפרטיות שירה גרטנברג – רפרנטית, משרד המשפטים חמדת קב – עו"ד בלשכה המשפטית, משרד הבריאות יונתן אמסטר – מנל תחום רגולציה, משרד הבריאות דן אור-חוף – חבר המועצה, המועצה להגנת הפרטיות ניר גרסון – ס' מנהל מחלקת יעוץ משפטי ואסדרה, הרשות להגנת הפרטיות עדו אילי – מתמחה, הרשות להגנת הפרטיות גלעד סממה – ראש הרשות, הרשות להגנת הפרטיות נעמה בן צבי – ראש היחידה היחידה להזדהות וישומים ביומטר, מערך הסייבר הלאומי מיכל בלאו אור – ממונה, ייעוץ משפטי מערך הסייבר, מערך הסייבר הלאומי יוסף פולסקי – עו"ד, הלשכה המשפטית, המוסד לביטוח לאומי צחי שלום – ראש מינהל טכנולוגיה ומידע, מרכז שלטון מקומי רחל ארידור הרשקוביץ – חוקרת, המכון הישראלי לדמוקרטיה לירון בנדק – עו"ד, סמנכ"ל רגולציה, נשיאות המגזר העסקי יעקב עוז – יו״ר ועדת הגנת הפרטיות והסייבר, להב טל מימרן – ראש תוכנית המחקר, תכלית – המכון למדיניות ישראלית טמיר בר – רכז קשרי ממשל, תכלית – המכון למדיניות ישראלית אייל שגיא – שותף, משרד עורכי דין AYR ענר רבינוביץ׳ – מנכ״ל, ProvacyTeam הילה היבש – יועצת משפטית ראשית, מיקרוסופט דלית בן-ישראל – שותפה ראש תחום פרטיות, משרד נשיץ, ברנדס, אמיר ושות' אלן יוסף – שותפה - ראש תחום הגנת הפרטיות, AOI איה מרקביץ – Privacy Director עמרי רחום טוויג – שדלן שחף קצלניק – שדלן, יועץ משפטי, התאחדות התעשיינים ייעוץ משפטי: נעמה מנחמי סגן מנהל הוועדה: אלירן כהן רישום פרלמנטרי: אסתר מימון רשימת הנוכחים על תואריהם מבוססת על המידע שהוזן במערכת המוזמנים הממוחשבת. ייתכנו אי-דיוקים והשמטות. << נושא >> הצעת חוק הגנת הפרטיות (תיקון מס' 14), התשפ"ב–2022, מ/1496 << נושא >> << יור >> היו"ר שמחה רוטמן: << יור >> בוקר טוב, אנחנו בהצעת חוק הגנת הפרטיות (תיקון מס' 14), התשפ"ב–2022. דווקא בבוקר זה חשוב להזכיר, אנחנו מנהלים את הדיון הזה, למרות שלכאורה הוא לא עוסק באופן ישיר בנושא המלחמה, לבקשת המל"ל שהועברה וגורמים נוספים על החשיבות בהגנה על מאגרי המידע של מדינת ישראל. אנחנו חווים עליה במתקפות הסייבר, ויש צורך באבטחה, צורך בעיצומים, לכן אנחנו משתדלים לקדם את החוק הזה כמה שיותר מהר, כדי לשפר את ההגנה, ובסופו של דבר גם האדווקסי הוא כלי כלכלי משמעותי מאוד שיסייע בעזרת השם למדינת ישראל לצאת מהמשבר הכלכלי שמלווה את המלחמה בצורה מהירה וטובה, ולכן אנחנו עוסקים בנושא הזה במלוא המרץ. אני כבר מתנצל שבמהלך הדיונים האלה נצטרך לעשות קצת הפסקות, כי זה יום מאוד מאוד עמוס בכנסת, ולצערי אין מספיק חברי כנסת שמלווים את הדיונים האלה באופן קבוע, שיכולים להחליף אותי בחלק מהדיונים. ככל שנצטרך לצאת להפסקה, נצא להפסקה ואז נשוב בהמשך. גברתי היועצת המשפטית, תזכירי לנו איפה היינו. << דובר >> נעמה מנחמי: << דובר >> עברנו על הגדרות "מידע", "מידע אישי" ו"מאגר מידע", דיברנו גם על הנושא של "ידיעה על ענייניו הפרטיים של אדם", והתחלנו בסיום הדיון הקודם את "מידע בעל רגישות מיוחדת". אולי משרד המשפטים רק יחזור בקצרה על הרציונל של ההגדרה ונאפס את כולם. << אורח >> עמית יוסוב עמיר: << אורח >> כיום, בסעיף 7 לחוק הגנת הפרטיות, יש הגדרה ל"מידע רגיש", שהיא הגדרה שהתיישנה במהלך השנים. יש רשימה יותר עדכנית בתוספת לתקנות הגנת הפרטיות (אבטחת מידע). התפיסות של מה רגיש ומה לא רגיש הן בוודאי גם תלויות זמן וגם תלויות מקום. לא בהכרח כל מה שמתאים לחברה אחת כהגדרה של מידע רגיש, או כמו שאנחנו מציעים לנסח את זה כאן, "מידע בעל רגישות מיוחדת", מתאים גם בישראל. ההצעה שמונחת בפנינו יש לה שתי נפקויות: הנפקות הראשונה היא הנפקות לפי סעיפי החוק המוצעים עצמם. כאן זה מתחלק לשניים. יש השפעה אחת לשאלה אם מידע הוא בעל רגישות מיוחדת או לא לעניין חובת רישום המאגרים, שאליה נגיע בהמשך הדרך, והנפקות השנייה היא לעניין גובה העיצומים הכספיים, לפי המודל המוצע, שגם הוא יידון בהמשך. אלה הנפקויות המעשיות של ההגדרה של "מידע בעל רגישות מיוחדת". חוק הגנת הפרטיות הוא חוק תשתיתי. לא פעם ולא פעמיים דברי חקיקה שונים מצטטים או מביאים הגדרות יסודיות מתוכו, ויש פה אמירה מעבר לנפקות הנורמטיבית הקונקרטית, אמירה ערכית קצת יותר רחבה מה נכלל בגדר מידע בעל רגישות מיוחדת. נעבור על סעיפי ההגדרה המוצעים, לפעמים העניין הוא יותר משפטי קונקרטי, אבל הרבה פעמים מדובר בהחלטת מדיניות משפטית ומדיניות חקיקתית. בסופו של דבר לרוב הרציונל, חוץ מאותם מקרים שיש בהם עניין מקצועי, ספציפי, שאפשר להצביע עליו, הוא עניין תפיסתי חברתי של מה נחשב בעינינו רגיש במיוחד. לפי הראייה הזאת אני מציע אחר כך לעבור על פרטי ההגדרה אחד-אחד ולראות מה עמדת הוועדה בעניינה. << יור >> היו"ר שמחה רוטמן: << יור >> בסדר גמור. נקודה שצריכה ללוות אותנו כבר מההתחלה זה מה שכתוב פה במסמך ההכנה של הייעוץ המשפטי. השאלה שתלווה אותי לאורך ההגדרות השונות זה בסופו של דבר השאלה האם יש מידע שהוא לא רגיש. אם יש את המושג 13 מידות שהתורה נדרשת בהן, כלל ופרט, פרט וכלל, אין בכלל אלא מה שבפרט ולהפך, אז אם אנחנו נמצאים בסיטואציה שכל מידע כמעט שאנחנו יכולים לדמיין נכלל איכשהו בהגדרת מידע רגיש, לא עשינו כלום, וגם רימינו את עצמנו קצת עם ההגנה המוגברת, גם עם חובות רישום כאלה ואחרות וגם עם עיצומים כספיים גדולים יותר, כי זה אומר שזה הדיפולט. העיצום הכספי תמיד יהיה בגבוה, ולא תהיה אף פעם סיטואציה שבה יהיה מידע. לכן אני אומר שצריך בסופו של דבר גם בפרט-פרט וגם בהסתכלות הכוללת לשאול האם יש מידע שאיננו מידע רגיש. כמובן הסתכלנו כבר בדיון הקודם על ההשוואה הבין-לאומית, מה מוגדר מידע רגיש או מידע בעל רגישות מיוחדת ב-GDPR ובחוקי פרטיות אחרים בעולם. << אורח >> עמרי רחום טוויג: << אורח >> אני רוצה רק לחזור על מה שאמרנו, גם בסיום הדיון הקודם כתשתית לדיון הנוכחי, על שאלת התחולה של ההגדרה החדשה הזאת בשים לב לנפקויות הנוכחיות שלה אל מול דיון עתידי שיהיה ותיקון 15 או בעתיד. זאת אומרת, האמירה הערכית לגבי מהו "מידע בעל רגישות מיוחדת" לא צריכה להשפיע על השאלה על מה הוא חל כרגע בתוך החוק. אם נחיל למשל את סעיף ההגדרות הזה רק על פרק ה', פרק סמכויות האכיפה, הקנסות המינהליים, שזאת הנפקות העיקרית של ההגדרה החדשה, זה לא גורע מזה שתהיה הגדרה בחוק שחוקים אחרים יכולים להפנות אליה, וכשנגיע לדון בתיקון 15, שבו יהיו נפקויות חדשות להגדרה הזאת, למשל דרישות נוספות על השוק, יהיה אפשר לדון מחדש - - - << יור >> היו"ר שמחה רוטמן: << יור >> בכל מקרה אפשר יהיה לדון מחדש. הנקודה המרכזית שאם הכול רגיש, אז שום דבר לא רגיש, היא מאוד משמעותית. נתחיל לצלול לסעיפים. הראשון זה "מידע על צנעת חייו האישיים של אדם, לרבות התנהגותו ברשות היחיד". << דובר >> נעמה מנחמי: << דובר >> אולי משרד המשפטים, זו ההצעה שלהם. << אורח >> עמית יוסוב עמיר: << אורח >> זאת אולי הליבה הכי יסודית של מהי הפרטיות הקלסית כשהיא נמצאת ברשות היחיד. צריך לומר, כמו שעו"ד מנחמני גם כתבה במסמך ההכנה, שהפסיקה נתנה פרשנות לסעיף הזה, היא לא צמצמה אותו במיוחד, אבל אנחנו כן מדברים על נושאים שהם בהחלט בד' אמותיו האישיות של אדם, כמובן מה שמתרחש בתוך ביתו, בבית המגורים, וזאת הגדרה יסודית ובסיסית, כשגם מבחינה חברתית, ציבורית, הדברים האלה בהחלט נתפסים כבעלי רגישות מיוחדת. << יור >> היו"ר שמחה רוטמן: << יור >> ה-GDPR פה - - - << אורח >> דן אור-חוף: << אורח >> הוא מדבר על משהו מצומצם בהרבה. << יור >> היו"ר שמחה רוטמן: << יור >> זה לא קיים. << אורח >> עמרי רחום טוויג: << אורח >> זה קיים באופן חלקי. << יור >> היו"ר שמחה רוטמן: << יור >> מה קיים? כלומר, כשמדובר על צנעת חייו, מתכוונים לדברים בהקשרי ההתנהלות המינית או דברים כאלה, לא על כלל התנהגותו ברשות היחיד. אם אני אוהב לשיר באמבטיה שירים של שרית חדד, זה לא נחשב. זה יכול להיות דבר מאוד רגיש, אבל זה לא כלול בהגדרה. << אורח >> דן אור-חוף: << אורח >> עם זאת, אני חושב שיש פסיקה ענפה ועשירה בעניין של צנעת הפרט, וזה גם חלק מההגדרה בסעיף 7 לחוק-יסוד: כבוד האדם וחירותו. זו הוויה של הזכות. << יור >> היו"ר שמחה רוטמן: << יור >> זה ברור. השאלה היא עכשיו איך נראה הפלייליסט שלי בספוטיפיי – האם זה מידע רגיש לפי ההגדרה הזאת? אפשר לחפש הגדרות אחרות שכן. זה מה שאני שומע ברשות היחיד, אני שומע שירים. זו התנהלותי ברשות היחיד. << אורח >> אייל שגיא: << אורח >> זה יכול להיות. אם הרשימה מראה - - - << אורח >> ראובן אידלמן: << אורח >> טעמו התרבותי של אדם, אני לא חושב שזה נחשב התנהגות ברשות היחיד, ולא מידע על צנעת חייו של אדם. גם כאן אפשר להעביר את הגבול. << יור >> היו"ר שמחה רוטמן: << יור >> אגב, הדוגמה פה מהפסיקה שהובאה במסמך ההכנה, היא יותר קשורה לסעיף 2. כלומר, ברור לי שאם האדריכל מהרבה מאוד סיבות מפרסם את התוכנית של הבית שלי, הוא פגע - - - << אורח >> צחי שלום: << אורח >> יש חובה חוקית לפרסם כשאני מגיש תוכניות לבניין. << דובר >> נעמה מנחמי: << דובר >> הדיון שם היה על הדמיות ממוחשבות של פנים הבית. << אורח >> צחי שלום: << אורח >> עדיין יש הדמיות. << יור >> היו"ר שמחה רוטמן: << יור >> יש חלוקת חדרים, אבל לא אמירה מה עושים בכל חדר. ברור לפי סעיף 2 שהוא פגע בפרטיות שלי. האם זה מידע רגיש לעניין מאגרי מידע? << אורח >> עמית יוסוב עמיר: << אורח >> לא היה מדובר בפסק דין במאגר מידע. האמירה פה שביתו של אדם מבצרו, והשאלה היא על התנהגותו של אדם ברשות היחיד. המעקב אחר אדם ולא מה הוא שומע בספוטיפיי. אדם יושב בסלון ביתו, אתה אומר שעכשיו הוא שומע מוזיקה, סליחה - - - << יור >> היו"ר שמחה רוטמן: << יור >> זה נורא ואיום שיפרסמו את זה לפי סעיף 2. השאלה אם מאגר מידע שאומר לי - - - << אורח >> עמית יוסוב עמיר: << אורח >> אם יש מאגר מידע, חברת טכנולוגיה קיבלה את הסכמתנו לעקוב עם אחד המכשירים החכמים שבבית על התנהגותי ברשות היחיד. אני עכשיו יושב ורואה טלוויזיה, עכשיו אני מכין קפה. סליחה, זה מה שאני עושה בתוך ביתי, בד' אמותיי. << יור >> היו"ר שמחה רוטמן: << יור >> למה ב-GDPR זה לא קיים? איך חיים אזרחי אירופה ה"מופקרים" מבחינת פרטיותם בנושא הזה? אני מבין את הרצון לבוא ולהגיד על ההגדרה של התנהלות מינית, גם בהקשר הרחב ביותר של התנהגות מינית, אני מבין למה זה מידע בעל רגישות מיוחדת או מידע רגיש, אבל עצם המושג "צנעת חייו האישיים" הוא סופר-סופר רחב, "לרבות התנהגותו ברשות היחיד". על פניו איזה שירים אני שומע בספוטיפיי זה התנהגות ברשות היחיד, בהנחה שאני לא יושב בגן הציבורי עם בוקסה, אבל בדרך כלל אנשים שומעים שירים בספוטיפיי באוטו או בבית, שזה ברשות היחיד. לכאורה הפלייליסט שלי בספוטיפיי נכנס לפה. << אורח >> עמית יוסוב עמיר: << אורח >> אני חושב למה ב-GDPR זה לא – קודם כול, הרגישות נובעת לא מתוכן המידע, אלא מאיפה הוא נאסף, מהציפייה. כשאני בד' אמותיי, אני וכל אדם, יש לו הנחה שהוא לא נתון למבט החיצוני הממשטר, שהוא יכול לעשות מה שהוא רוצה. << יור >> היו"ר שמחה רוטמן: << יור >> לכן מי שמצלם אותי ברשות היחיד עבר עבירה לפי סעיף 2, או הקליט. << אורח >> ניר גרסון: << אורח >> נכון או גם מידע שנאסף עליי באמצעות אחד העוזרים: מסירי או מהטלוויזיה. מה שאני עושה בתוך ביתי, מלכתחילה, בגלל אופן האיסוף - - - << יור >> היו"ר שמחה רוטמן: << יור >> תסתכל שנייה על הבעיה. אני עכשיו היצרן של סירי. יש לי אפשרות לעקוב דרך הסירי על מגוון רחב של מידע. אני יכול לקלוט איזה שירים שומעים בחלל הבית, ולהפעיל עליהם את המנגנון של איתור השירים, וכך לזהות את טעמך המוזיקלי, וכך אולי להציע לך בהמשך גם כל מיני הקלטות או שירים, או כשאתה תפתח את הטלפון שלך יקפוץ לך המידע שמעניין אותך, ואז אני לכאורה לפי הסעיף הזה לא נכנס להגדרה אם אני ב-GDPR וכן נכנס להגדרה אם אני בישראל, ואני יכול לאסוף מידע גם על התנהגותך המינית, באמצעות אותו רמקול שטח. אתה אומר לי: מה אכפת לך? תאסוף הכול כי בכל מקרה אתה נכנס להגדרת מידע רגיש, בכל מקרה תחטוף את הביקורת ברמה הגבוהה, בכל מקרה תחטוף את העיצומים הגבוהים, אז אתה לא מספק הגנה אקסטרה לצנעת חיי המינית. << אורח >> ניר גרסון: << אורח >> אדוני, מהניסיון שלנו, אפשר להתווכח, לא כך השוק מתנהל. << יור >> היו"ר שמחה רוטמן: << יור >> נשמע את השוק. << אורח >> ניר גרסון: << אורח >> מה שאנחנו אומרים שההגנה העודפת, שהיא לא מפחיתה מההגנה על הנטייה המינית, אוריינטציה מינית - - - << יור >> היו"ר שמחה רוטמן: << יור >> היא ודאי מפחיתה. זה אני לא מקבל. אם אתה אומר לי שהכול ברמה הגבוהה, אז אתה לא מייצר - - - << אורח >> ניר גרסון: << אורח >> לא הכול ברמה הגבוהה. אדוני, אם תשב עם בוקסה בגינה זה לא ברשות היחיד. זה מיועד להגן על משהו שאנחנו לפי הניסיון שלנו, וגם ההכרה של התחום, שלאנשים יש ציפייה בצדק שהרבה דברים שהם עושים - - - << יור >> היו"ר שמחה רוטמן: << יור >> הנקודה מובנת. << אורח >> ניר גרסון: << אורח >> לגבי ה-GDPR, לא חשבנו עד תום על זה, אבל ההגדרה ב-GDPR נוגעת לסוג המידע ולא לאופן האיסוף שלו. יש שיטות שונות. << יור >> היו"ר שמחה רוטמן: << יור >> נכון, אבל יש לזה סיבה מאוד טובה. כאשר אתה מדבר על מאגר מידע, אני לא יודע כשאני מחזיק את המאגר, בטח אם הוא עבר שלוש ידיים. << אורח >> ניר גרסון: << אורח >> אתה אמור לדעת. זה אחריותיות. אתה אמור לדעת איזה מידע יש לך. << יור >> היו"ר שמחה רוטמן: << יור >> אני יודע אם הוא נאסף בהסכמה או שלא בהסכמה - - - << אורח >> ניר גרסון: << אורח >> לפי התקנות שהוועדה אישרה פה, תקנות אבטחת מידע - - - << יור >> היו"ר שמחה רוטמן: << יור >> יכול להיות שהן לא טובות, הן גם התיישנו. אתה מבקש לשנות את ההגדרות, אבל אני אומר חכה: אני עכשיו מגיע לפגישה עסקית עם מנכ"ל ספוטיפיי, ואני מציע לו הצעה שהוא לא יכול לסרב לה, אני אשלם לו על מאגר המידע שלו X שקלים או דולרים, כי אני מאוד רוצה לפתח משהו לנושא הזה. הוא אומר לי: אני אספתי את המידע ממה שאנשים שומעים, יכול להיות שיש לו רובריקה מה אנשים שומעים בבוקסה ומה אנשים שומעים בבית, יכול להיות שכן, יכול להיות שלא. אני לא יודע איפה הבן אדם הפעיל את הספוטיפיי, אני לא יודע אם הוא ציפה או לא ציפה, אם הוא ידע שישמעו לו, אני יודע שזה נאסף באמצעות אפליקציית הספוטיפיי שלו - - << אורח >> עמית יוסוב עמיר: << אורח >> זה כבר פרשנות. << יור >> היו"ר שמחה רוטמן: << יור >> - - אבל המידע ששם, אתה בא ומטיל עליי חובה לבוא ולהגיד – ואולי נעשה את זה לפי קבוצות גיל, מאחר שיש נטייה לבעלי קבוצות עד גיל 16 להסתובב ברחוב ולשמוע את השירים בווליום גבוה מדי, בוודאי לטעמם של זקנים כמוני – זה בסדר, את זה אתה יכול לאסוף, כי זה לא ברשות היחיד, אבל אם זה מבני 80, רוב הסיכויים שהם משתמשים בספיטופיי, אם הם יודעים להשתמש בספוטיפיי, בתוך רשות היחיד, ולכן אסור לך לאסוף את המידע עליהם. אתה מכניס אותי למקום שאני לא יכול להיות בו כאשר מאגר המידע הוא בסופו של דבר איזה שירים פלוני אוהב. << אורח >> ראובן אידלמן: << אורח >> אנחנו בעולם של Internet of things, והרשות פרסמה לאחרונה מסמך מקיף בנוגע לפרטיות במוצרי Internet of things, בתים חכמים וכל הדבר הזה. זה לא רק סירי. יש היום הרבה מאוד דברים שבתוך הבית אנחנו מכניסים כולנו מכשירי מעקב באופן וולונטרי אלינו הביתה, שאוספים עלינו הרבה מאוד מידע אישי, בד' אמות הבית, ברשות היחיד. << יור >> היו"ר שמחה רוטמן: << יור >> זה רק מראה שצריך להסתכל לא על שאלת מקום האיסוף. << אורח >> ראובן אידלמן: << אורח >> המאגרים האלה מבחינתנו הם חד-משמעית מידע - - - << יור >> היו"ר שמחה רוטמן: << יור >> בסדר. בואו נשמע את השוק. אמרתם "שוק", נשמע. << אורח >> עמית יוסוב עמיר: << אורח >> רק הבהרה אם אפשר. אני חושב שנגררנו למקום לא נכון, לפלייליסט. נקודת המוצא פה היא ההתנהגות ברשות היחיד, זאת אומרת, אם המידע אומר: ככה אדם מתנהג ברשות היחיד - - - << יור >> היו"ר שמחה רוטמן: << יור >> זה לא נקודת המוצא, זה ה"לרבות" שלך. << אורח >> עמית יוסוב עמיר: << אורח >> "צנעת חייו האישיים של אדם". << יור >> היו"ר שמחה רוטמן: << יור >> באופן עקרוני, בכל פעם שההגדרה תהיה רחבה, בוודאי רחבה משמעותית מהגדרות ה-GDPR, אנחנו ניגרר. << אורח >> עמית יוסוב עמיר: << אורח >> רק אמירה אחת טכנית על ה-GDPR. המשמעות של הכללה עכשיו של פרט מידע בסיווגים של ה-GDPR, סוגי המידע המיוחדים, היא שחלות מגבלות קשות על העיבוד של המידע הזה. זאת אומרת, אנחנו לא כאן. לכן הקדמתי ואמרתי שהנפקויות שונות מאוד. << אורח >> עמרי רחום טוויג: << אורח >> עוד חודשיים נהיה. << יור >> היו"ר שמחה רוטמן: << יור >> סליחה. א', אנחנו כבר שם לעניין תקנות התאימות. << אורח >> עמית יוסוב עמיר: << אורח >> גם לא. תקנות התאימות לא מגבילות את העיבוד. << אורח >> ניר גרסון: << אורח >> ב-GDPR יש איסור לעבד מידע רגיש, אלא אם יש חריגים מאוד מצומצמים. המשמעות שם הרבה יותר - - - << אורח >> ענר רבינוביץ׳: << אורח >> אחד מהם זה הסכמה מדעת, שהחוק בישראל כרגע דורש - - - << יור >> היו"ר שמחה רוטמן: << יור >> נכון. הן מרחיבות על המצב בישראל, לא מחמירות. בואו נשמע את היושבים מסביב לשולחן. באופן עקרוני בכל פעם שנהיה בהגדרה שהיא לא קרובה או דומה או בשינויים המחויבים, תבוא ותגיד לי שאנחנו בתרבות האמריקאית, ביתו הוא מבצרו, אנחנו לא שם. בהרבה מאוד תחומים אנחנו לא שם. אנחנו לא המדינה עם הכי הרבה כבוד לרשות היחיד שיש, גם לא המדינה עם הכי הרבה ציפיית פרטיות ברשות היחיד שיש, אז למה אנחנו צריכים להיות הכי מיוחדים? צריך לשאול פה שאלה. ככל שההגדרות שלנו יהיו יותר קרובות ל-GDPR, שיש בזה ערך בפני עצמו, כמו שאמרנו, השאלות יהיו אחרות, ואין מה לעשות, אנחנו חייבים לשאול את השאלות האלה וחייבים להתמודד איתן. << אורח >> רחל ארידור הרשקוביץ: << אורח >> אני רוצה להמשיך בדיוק באותו קו, כי העולם שלנו התקדם, זה כבר לא הפרטיות שלא לשים דלת מול דלת של אוהל, אלא מכשירי המעקב האלה נותנים לנו הרבה מאוד מידעים. לכן דווקא מה שנמחק מההגדרה, "הנתונים על אישיותו של אדם וצנעת אישותו" הם אלה שרלוונטיים מבחינת המידע הרגיש, הם אלה שמגלים לנו את הדברים הקריטיים. והאמירה הכוללת של צנעת חייו של אדם, שאפשר להכניס אליה המון-המון דברים היא מאוד מאוד מרחיבה. אם רוצים לדייק, צריך דווקא את הדברים שהורדתם להחזיר. << יור >> היו"ר שמחה רוטמן: << יור >> לצורך העניין, אם אנחנו מדברים למשל על נטייה מינית או התנהגות מינית זה גם פחות משנה לי בהקשר של מאגר המידע אם היא נעשית ברשות היחיד או ברשות הרבים. ולכן ההגדרה כמו שהיא כרגע מושכת אותי למקום איסוף המידע ולא טיב המידע, ואני חושב שכאשר אנחנו עוסקים במאגר מידע, בטח אם אנחנו חושבים על מאגרי מידע שמחליפים ידיים, ואנחנו לא רוצים שמאגרי מידע לא יחליפו ידיים, אנחנו רוצים שהם יחליפו ידיים בצורה מפוקחת ומבוקרת, ובהתאם לחוק, אנחנו לא רוצים למנוע את החלפת הידיים של המאגר או את השימוש, אנחנו רוצים להסדיר את זה, אנחנו לא רוצים למנוע את זה. ככל שאתה מתחבר לשאלה איפה נאסף המידע, אתה עושה הקשרים מאוד מאוד קשים לשימוש במאגר, ולא מסתכל על המאגר לפי מה שהוא. מה יש לי פה בסופו של דבר? מידע על צנעת חייו של אדם או מידע לא על צנעת חייו של אדם, והשאלה איפה הוא נאסף היא שאלה חשובה, אבל תגביל אותה בסוג העיבוד, תגביל אותה בסוג האיסוף, תבוא ותגיד: אסור לאסוף מידע ברשות הפרט של אדם אלא בהסכמה, בניגוד לאיסוף מידע ברשות הרבים שיש לה משהו אחר או הסכמה מודעת וכל מיני דברים. << אורח >> עמית יוסוב עמיר: << אורח >> רק להבהיר. הכוונה היא לא להגיד איפה נאסף המידע במובן של כל פרט מידע, השאלה מה מתאר המידע. אם המידע מתאר איך בן אדם מתנהג ברשות היחיד, לשם הכוונה. << יור >> היו"ר שמחה רוטמן: << יור >> אמרתם כמה דברים שונים. בסוף נתכנס למשהו אבל זה קצת שונה ממה שנאמר קודם. << אורח >> טל מימרן: << אורח >> אני מציע להסתכל גם על היכולת של טכנולוגיות לתרגם מידע תמים לכאורה למידע שהוא מידע רגיש. למשל יש דיווחים על זה שקופת חולים כללית מ-2022 הכניסה מערכות שמאפשרות לרופא לזהות מצב נפשי של אדם, נושא שעלה בפגישה הקודמת, באמצעות הרגלי גלישה. למשל יש לנו פה הגדרה של הרגלי צריכה, אבל לא ברור למשל איפה הרגלי גלישה באים לידי ביטוי. << יור >> היו"ר שמחה רוטמן: << יור >> אתה אומר שמהרגלי צריכה אפשר ללמוד על זה. << אורח >> טל מימרן: << אורח >> בעיקרון צריך להסתכל גם על הטכנולוגיה שיכולה להיתרגם למידע וגם להסתכל על ההבדל בין מידע שנאסף באופן רצוני או שלא. << יור >> היו"ר שמחה רוטמן: << יור >> נניח שאני מקים מאגר מידע של הרגלי גלישה. נדון כרגע לפי הסעיף הזה, אני לא מדבר כרגע על סעיף אחר. לפי הסעיף הזה, מאגר מידע להרגלי גלישה, הוא לא בהכרח מידע על צנעת חייו האישיים של אדם, לרבות התנהגותו ברשות היחיד. האם ניתן על בסיס ביג דאטה או סמול דאטה, תלוי במובהקות המידע, לקחת את נתוני הגלישה ולזהות? יש אתרים שאם אתה לא בתפיסה מסוימת של צנעת חייך האישיים, אתה לא תגלוש שם בחיים, ולהפך. ככל שהמידע יותר מובהק, זה יכול להיות לפי כמה זמן השתהית על תמונה בפייסבוק. << אורח >> טל מימרן: << אורח >> שעת הגלישה. << יור >> היו"ר שמחה רוטמן: << יור >> זה יכול להיות אלף דברים אחרים. אם איסוף המידע הזה כשלעצמו, בלי פעולת העיבוד הזאת לא יביא אותי לצנעת חייו האישיים של אדם, אני רוצה שהוא לא יהיה פה. לעומת זאת, אם אני בהגדרה הרחבה, הוא יהיה פה, כי גלישה בדרך כלל אדם עושה ברשות היחיד. זו בדיוק התמונה. << אורח >> טל מימרן: << אורח >> נכון, אבל צריכים לאבחן בין מצב שאני גולש בבחירה, באתר שאני רוצה או לא רוצה לגלוש בו, או כי אני מחויב להיכנס לאתר כללית, כי אני מחויב להיות בקופת חולים מסוימת וכן הלאה. << יור >> היו"ר שמחה רוטמן: << יור >> זה כבר שאלת ההסכמה. << אורח >> אייל שגיא: << אורח >> הצורה הזאת של הגדרה תוביל אותנו, אם דיברנו על השוק – עורכי הדין של השוק ייקחו, כי הרגולטורים לוקחים, גם באירופה, את כל ההגדרות, ותמיד הולכים לקצה. אין מצב שרשימת השירים בספוטיפיי לא תיחשב מידע רגיש בצורה הזאת, ולו מהטעם שיש אנשים שלגביהם רשימת השירים הזאת מספרת הרבה מאוד על הרגליהם, על העדפותיהם והתנהגותם. הזכירו פה ממשרד המשפטים IOT. כל דבר שניקח, אם זו ההגדרה, כמו שאדוני אומר, אפשר לכתוב. כל מידע על אדם הוא מידע רגיש, ובזה נגמר, ונתקדם כך. אפשר לקחת מהיסטוריית גלישה מכל דבר. אני קופץ רגע להגדרה של מידע רפואי. בזמן הקורונה היה צריך לאסוף הצהרות של אנשים שהם בריאים. זה גם מידע רפואי. אין לזה סוף. אם אנחנו הולכים בכיוון כזה, בואו נכתוב ישר: נא להגן על המידע האישי ברמה הגבוהה ביותר. אגב, בסטנדרטים של אבטחת מידע מה אומרים? הגן על המידע בסטנדרט שמגיע לו, לפי הרגישות שאתה חושב שמגיע לו. אז אם יש לי רשימת גלישה בספוטיפיי, ואני חושב שזה יכול להביא למידע על הרגלים מיניים, אני אגן על זה מאוד. אם אני מעבד את זה רק למטרה שאולי אתה אוהב את מדונה, אולי תאהב גם זמרת אחרת, מצוין. אם אני רוצה להוציא, נדע מי כל הדו-מיניים אצלנו ברשימה, זה לא. פה הסכמה, עצור, זה לא מתאים. אם אנחנו מראש אומרים שרק בגלל שאפשר לקחת את המידע הזה, אז הכול רגיש, חבל על הדיונים. אנחנו עוברים כל כך הרבה על כל הגדרה. << יור >> היו"ר שמחה רוטמן: << יור >> זו הגדרה ראשונה. כלי החשיבה שנאמץ במסגרתה, תעזור לנו מאוד להמשך. << אורח >> דן אור-חוף: << אורח >> המידע על צנעת חייו בסעיף לקוח מן הסתם בתוספת בתקנות אבטחת המידע. אם אנחנו מוותרים על הסעיף הזה, המונח שקיים היום בסעיף 7, "צנעת אישות", חייב להישאר, כי על זה בוודאי אני חושב שיש קונצנזוס שזה כן מידע רגיש. וגם נטייה מינית שמופיעה ב-GDPR, לא מופיעה אצלנו לא בחוק, לא בהצעת החוק ולא בחוק הקיים, זה משהו בוודאי רגיש, וחשיפה שלו ללא הסכמה יכולה להביא לפגיעה, ולכן זה נושא שצריך להביא בחשבון בהגדרה של הסעיף הזה. << אורח >> יעקב עוז: << אורח >> יש פה אבולוציה של סעיף 2 ו-3 בפרק א', שמדבר רק על צילום של אדם ברשות היחיד. ההסכמה, אני מזכיר לכולם, נמצאת בכלל בפרק א', ולא מדברת על פרק ב', שבו אנחנו עוסקים בתחום מאגרי המידע ואבטחת המידע. המדרון החלקלק של כל מה שקשור בצנעת הפרט והרגלי הצריכה, תישאל פה שאלה הכרחית לאור ההערה של ראובן, האם הכנסתי כרגע את גוגל מיני הום, או את אלקסה, או את סירי, או את המצלמה הביתית, הבעתי הסכמה לפגיעה בפרטיות שלי, כן או לא. הצמצום והניקוז של הדבר הזה, שמנתק אותנו מההסכמה, הוא בעייתי. << יור >> היו"ר שמחה רוטמן: << יור >> זה ודאי. << אורח >> יעקב עוז: << אורח >> ולכן אנחנו לא יכולים להתעלם, כי ה-concent הוא לא ההסכמה שנדרשת כאן, ואם שמתי כרגע - - - בבית, לא משנה איזה device, הסכמתי במפורש או מכללה לשים את אותו אמצעי? << יור >> היו"ר שמחה רוטמן: << יור >> שאלת ההסכמה היא שאלה פרלימינרית, היא לא קשורה לטיב המידע. אם בן אדם הלך ברחוב, בהסכמה מלאה שאל בסקר רחוב: אתה סטרייט או גיי? הוא שאל ורשם, שאל ורשם, זה הכניס את זה גם לדיגיטלי, כי אם הוא רשם בפנקס זה לא מאגר מידע. המידע התקבל בהסכמה בוודאי, אפילו ברשות הרבים, כי הוא שאל אותו ברחוב, הכול בסדר. זה ודאי מאגר מידע בעל מידע רגיש. שאלת ההסכמה ורשות הרבים לא קשורים לאירוע. << אורח >> יעקב עוז: << אורח >> אני אקח את זה עוד שלב קדימה. אתה מאזין בספוטיפיי שלך, ואחרי זמן מה קיבלת הזמנה להופעה של להקה שאתה מאוד מאוד אוהב. האם זה הרגלי צריכה שלך? << יור >> היו"ר שמחה רוטמן: << יור >> יכול להיות. << אורח >> יעקב עוז: << אורח >> ואתה הסכמת? << יור >> היו"ר שמחה רוטמן: << יור >> יכול להיות. אני לא יודע. << אורח >> יעקב עוז: << אורח >> סימני השאלה פה חייבים להפוך להיות סימני קריאה. זה משאיר אותנו במקום של ערפל. << אורח >> עמרי רחום טוויג: << אורח >> שאלת מה עמדת השוק, ויש פה הרבה אנשים מהשוק. אני חושב שאם המונח הזה לא היה מתייחס לצנעת חייו האישיים של אדם, לרבות התנהגותו ברשות היחיד, אלא לצנעת אישותו של אדם ונטייתו המינית, אני חושב שאף אחד לא היה מתווכח עם ההגדרה הזאת. זה מתכתב עם סוגיה שאדוני העלה, והיא הפרדה בין דאטה שיכול להעיד לבין הסקת נתונים שזה יכול להיות בעל רגישות מיוחדת. זה נכון לכל אחד מתתי-הסעיפים כאן. נגיע לזה בכל אחד, אבל גם כאן. זה צריך להיות מידע המעיד באופן ישיר על צנעת אישותו של אדם, מידע המעיד באופן ישיר על מצבו הרפואי וכן הלאה, וזה יעשה את ההפרדה בין ה-Raw data שלא עבר עיבוד לבין ה-Infer data, שכבר מעיד באופן ישיר על מידע בעל רגישות מיוחדת, אחרת שוב, אנחנו ניכנס לסחרור, כי כל מידע בסיסי, שעוד לא עבר עיבוד, כמו שאמרת: נתוני עתק או נתונים קטנים, יכול בסוף על בסיס עיבוד מסוים להגיד דברים רגישים. << יור >> היו"ר שמחה רוטמן: << יור >> זה דבר שצריך להתייחס אליו. גם כשדיברנו על מידע, אמרנו שניתן לזיהוי במישרין או בעקיפין באמצעים סבירים. עשינו את זה כאילו - - - << אורח >> יעקב עוז: << אורח >> במאמץ סביר. << יור >> היו"ר שמחה רוטמן: << יור >> במאמץ סביר, באמצעים סבירים. << דובר >> נעמה מנחמי: << דובר >> במאמץ סביר. מאז זה השתנה. << יור >> היו"ר שמחה רוטמן: << יור >> נכון. פה אפילו זה לא עניין של מאמץ סביר, כי פעולת עיבוד יכולה להפוך מאגר מידע למאגר מידע רגיש. השאלה אם אני רוצה שכבר בשלב של הניתן, הוא כבר יהיה מידע רגיש. << אורח >> עמית יוסוב עמיר: << אורח >> אני אתייחס גם לדברים האחרים שנאמרו, אבל אני חושב שזה מסוכן ללכת. יש חברות ענק שמחזיקות מאגרי מידע ענקיים, יש להן יכולת רגישה מאוד להפוך המון פרטי מידע שלנו, לכאורה טריוויאליים, למידע רגיש ביותר. << אורח >> עמרי רחום טוויג: << אורח >> אם היא תשתמש בו, היא תהיה כפופה להגדרה. << אורח >> עמית יוסוב עמיר: << אורח >> לא. ההחזקה של מאגר המידע הזה, להגיד שבהחזקת מאגרי המידע הענקיים של ענקיות הטכנולוגיה אין רגישות מיוחדת, אני חושב שזה פשוט לא משקף. << יור >> היו"ר שמחה רוטמן: << יור >> שוב, אף אחד לא אומר - - - << אורח >> עמית יוסוב עמיר: << אורח >> זאת המשמעות. << יור >> היו"ר שמחה רוטמן: << יור >> לא. זו לא המשמעות. << אורח >> עמית יוסוב עמיר: << אורח >> כן. זו המשמעות הנורמטיבית. << יור >> היו"ר שמחה רוטמן: << יור >> לא. זו לא המשמעות. אני אתן דוגמה מהקשר אחר. דיברנו בהקשר אחר על הנושא של מאגר מידע גנטי. מדינת ישראל אוספת דגימות גנטיות בכל מיני סיטואציות, היא יכולה לאסוף דגימות גנטיות כשבן אדם מתגייס לצבא, מאגר מח עצם, דם טבורי – יש כל מיני מנגנונים של איסוף של דגימות. אתה בא ואומר לי שמאחר שדגימות זה לא ממוחשב, אני לא יכול לסרוק, אני לא יכול לאתר מי זה, אני צריך לשמור על הדגימות ברמת שמירה מסוימת. אם אני אפענח את הדגימות, אז כל בן אדם שיש לו גישה למאגר, יוכל ישר לאתר את הבן אדם ורמת הרגישות תעלה. יכול להיות שיהיה לי אינטרס שיפענחו, ואז להפוך את מאגר הדגימות שהוא לא מפוענח ליותר קשה לשימוש, לדורש שאילתה פרטנית ספציפית על אדם מסוים ופענוח, ואני יכול לבוא ולהגיד: תפענח לי את כל המאגר. אם אני אגיד למדינה שבכל מקרה, גם אם היא לא תעשה שום פעולה, היא תצטרך להשקיע את אותם מאמצי הגנה, פיקוח וכו' על מאגר מפוענח או על מאגר לא מפוענח, היא תגיד: את אותם מאמצים אני משקיעה, את התועלות אני רואה בקלות, אז אני כבר אפענח. ובגלל שלא יצרתי את המנגנון השונה, מנגנון הפיקוח, מנגנון הרגולציה השונה, אז יצרתי תמריץ להחזיק את המידע הכי פוגעני, הכי רגיש, כל הזמן, כמה שיותר, כי עלויות יהיו לי כבר בכל מקרה: עלויות ההגנה, עלויות הרגולציה, עלויות הרישום, החשיפה לעיצומים – הכול יהיה אותו דבר. אם כבר, אז כבר. וזו לא גישה נכונה. אני רוצה שגוגל לא יפענחו את הרגלי הגלישה שלי כדי לזהות את הנטייה המינית שלי, אלא אם כן יש להם צורך בזה, ואז שיעשו את זה למאגר ספציפי וירשמו אותו כמו שצריך. << אורח >> עמית יוסוב עמיר: << אורח >> זאת לא הגישה, אדוני. << יור >> היו"ר שמחה רוטמן: << יור >> זאת לא הגישה של מי? << אורח >> עמית יוסוב עמיר: << אורח >> זאת לא הגישה שאנחנו מציעים. ועוד שנייה אני גם אגיע אולי להצעה שתוכל טיפה לצמצם את הנוסח. כמובן המטרה היא לא להגיד שהכול בעל רגישות מיוחדת, אבל צריך להבדיל בין המכולת לבין גוגל, או בין עסק בינוני לבין פייסבוק ואמזון. << יור >> היו"ר שמחה רוטמן: << יור >> יכול להיות שצריך הגדרה לנתוני עתק, אבל אל תהפוך את כולם - - - << אורח >> עמית יוסוב עמיר: << אורח >> אני אציע את הנוסח שחשבנו עליו, כי המטרה לא להגיד שאם אספתי שיר, ובמקרה מי שהקשיב לשיר הזה הוא יושב עכשיו בביתו, ובגלל שאני יודע שהוא הקשיב לשיר, זה כבר הופך להיות בעל רגישות מיוחדת. אפשר לחדד ולומר שמדובר על מידע על צנעת חייו האישיים של אדם ואופן התנהגותו ברשות היחיד. זאת אומרת, המטרה היא לא להגיד מאיפה אספתי את פרט המידע כשהוא יושב בביתו. אם אני עוקב איך אדם מתנהג בתוך ביתו, זה רגיש. << אורח >> עמרי רחום טוויג: << אורח >> אם הוא מתנהג בצורה מיוחדת במקום עבודתו? מה זה משנה? << יור >> היו"ר שמחה רוטמן: << יור >> במחילה. אני רוצה פה קו אחר. אני מבין את הקו הזה, אני לא חושב שהוא נכון. אני חושב שהוא גישת הכול או לא כלום, שמביאה אותנו ללא כלום במידה מסוימת. אני חושב שאנחנו צריכים להתמקד בהגדרות המידע הרגיש, להיצמד ככל הניתן ל-GDPR כשני קווים מנחים, כדי לוודא שזה לא הכול, אלא אם כן יש סיבה ממש טובה. אני כן חושב שאנחנו צריכים בהגדרה האחת הזאת ללכת למקום של "צנעת אישותו ונטייתו המינית". ההגדרה של ה-GDPR זה בעצם צנעת אישותו ונטייתו המינית. זה העתק-הדבק. יש עוד הגדרות, וגם כשנסיים את ההגדרה הזאת נסתכל הוליסטית ואם נשכח משהו או נראה שצריך להוסיף משהו שמתאים לחברה הישראלית, נעשה את זה. אבל באופן עקרוני ההגדרה פה היא סופר רחבה וכוללת בתוכה פחות או יותר כל דבר. << אורח >> עמית יוסוב עמיר: << אורח >> אני מבין את הכיוון של אדוני, אבל רק להבהיר. נניח שבהסכמה עשיתי שטות או לא שטות, אני מסכים שעכשיו הטלוויזיה החכמה שלי תצלם אותי בבית. אין פה פגיעה בפרטיות לפי סעיף 2, כי הסכמתי, ועכשיו המצלמה מצלמת אותי מסתובב בבית ואת כל מה שאני עושה, או מערכת הפעלת המחשב שלי מתעדת את כל הפעולות שאני עושה במחשב, מהראשונה עד האחרונה. זה קרוב לקריאת מחשבות, הדברים האלה. << יור >> היו"ר שמחה רוטמן: << יור >> יכול להיות שאם החלטת לחיות בבית האח הגדול, וזו ההחלטה שלך - - - << אורח >> עמית יוסוב עמיר: << אורח >> עזוב מה שמפורסם לציבור. << יור >> היו"ר שמחה רוטמן: << יור >> יכול להיות שאם החלטת לחיות בבית האח הגדול, אז ויתרת על זה שהמידע - - - << אורח >> ניר גרסון: << אורח >> כולנו חיים בבית האח הגדול היום. << יור >> היו"ר שמחה רוטמן: << יור >> יכול להיות שככל שזה יהיה Raw data, יכול להיות שזה יהיה מזהה ביומטרי, יכול להיות שזה יהיה הרגלי צריכה של אדם שיש בהם כדי ללמד על (1) עד (8), יכול להיות שזה יגלה את המוצא שלי, כי בהסתובבות בבית יגלו באיזה מנגינה אני שר את הפיוטים. זה שאנחנו יכולים לתאר סיטואציה שיכול להיות שהיא מאוד נפוצה, ויכול להיות שבביג דאטה היא עושה משהו, יכולים להיות כל מיני דברים, אבל האם זה רגיש? יכול להיות שאם ויתרת על זה, אז לא. << אורח >> עמית יוסוב עמיר: << אורח >> לא ויתרתי. << יור >> היו"ר שמחה רוטמן: << יור >> ויתרתי על הפרטיות, אבל לא ויתרתי שיישלח למאגר מידע, כי נורא מטרידה אותי שאלת המאגר, לא שאלת הפרטיות שלי. << אורח >> עמית יוסוב עמיר: << אורח >> ההסכמה היא לא ויתור על הפרטיות. הסכמתי שיצלמו אותי ויאספו עליי נתונים. << יור >> היו"ר שמחה רוטמן: << יור >> אז הסכמת שיאספו עליך נתונים. << אורח >> עמית יוסוב עמיר: << אורח >> שוב, המשמעות להגדיר - - - << יור >> היו"ר שמחה רוטמן: << יור >> יש היתר להשתמש במידע שלא למטרה שלשמה הוא נמסר? << אורח >> ניר גרסון: << אורח >> השאלה, התמריצים. << יור >> היו"ר שמחה רוטמן: << יור >> האם הוא רגיש או לא רגיש? << אורח >> עמית יוסוב עמיר: << אורח >> השאלה אם הוא רגיש או לא רגיש, זאת השאלה. << יור >> היו"ר שמחה רוטמן: << יור >> יכול להיות שאתה בהתנהלותך הפכת אותו ללא רגיש, יכול להיות שכן, זה תלוי בהקשר אחר, לא לפי הגדרה אחת, לא לפי סעיף אחד. נעבור על כל הסעיפים. לא נצא מזה. << אורח >> עמית יוסוב עמיר: << אורח >> אני מציע רק לזכור, כי אני לא חושב שנמצא מענה לדבר הזה. << יור >> היו"ר שמחה רוטמן: << יור >> נזכור את זה בסוף. חכה כשנגיע לביומטרי. << דובר >> נעמה מנחמי: << דובר >> (2) – ההצעה המקורית הייתה "מידע רפואי כהגדרתו בחוק זכויות החולה, התשנ"ו–1996", ומאז עברנו כמה תהליכים, בין היתר הבנו שהקישור לחוק זכויות החולה מתייחס רק ליחסי מטפל-מטופל, וזאת לא הייתה הכוונה, והיו עוד כמה ניסוחים בדרך. הניסוח שהוצע ומוסכם עכשיו על הייעוץ המשפטי של שני הצדדים זה "מידע המתייחס למצב בריאותו של אדם". << אורח >> אייל שגיא: << אורח >> כמו שאמרתי קודם, אני בריא, הגעתי היום לכנסת. יש לכנסת מידע על מצבי הבריאותי בקורונה, כולם אספו מידע על מצבי הבריאותי. זה יחזור בכל ההגדרות, אין פה מסנן בסיסי של היגיון שאומר איפה הקו עובר, והתוצאה היא שאנחנו מתקדמים כרגע במסלול, כמו שאדוני אמר, שהכול יהיה מידע רגיש כי כל דבר יכול להיות מידע רגיש. ראו אותי הולך ברחוב ולא צולע, זה שאיני צולע זה מידע על מצבי הבריאותי. זה המצב. שאלת איך השוק מפרש, כשבא לקוח ואומר: בריא זה מצב בריאותי, אני אגיד: מה אתם צריכים - - - הולכים להיות עליכם עיצומים כספיים עצומים, כי כתוב "מצב בריאותי", מצבו טוב זה מצב בריאותי טוב, יופי. הגעתי לעבודה חולה, כל מעסיק יש לו מידע בריאותי. לא נצא מזה. << דובר >> נעמה מנחמי: << דובר >> אני לא בטוחה שזאת הכוונה. יכול להיות שאפשר לצמצם את זה מבחינת הניסוח. << אורח >> עמרי רחום טוויג: << אורח >> למשל "המעיד באופן ישיר". << אורח >> ניר גרסון: << אורח >> ב-GDPR אין הגבלה. << יור >> היו"ר שמחה רוטמן: << יור >> ב-GDPR מצד אחד ההגדרה מאוד רחבה, אבל ב- recitalשם הם נותנים את הדוגמאות, ומהדוגמאות עולה שלכאורה ראיתי אותו הולך ברחוב ולא צולע זה לא נחשב. הצהרת בריאות פשוטה – אני בריא, לא הצהרת בריאות שאני סובל מקורונה. אגב, אני ודאי חושב שזה שאתה אומר שאתה בריא כרגע ואין לך קורונה זה מידע רפואי, אולי לא רגיש, אבל כשיש לך קורונה זה כן רגיש. יכולה להיות שם סיטואציה שתגיד: אני בריא היום. אני זוכר כמה טרלול של פרטיות היה סביב נושא הצהרת הבריאות – חוק הקורונה התבטל על כל האנשים שחתמו הצהרות בריאות חצי שנה כשהילד יוצא לגן – השרבוט הזה על הנייר שהם כתבו לילד, הפך להיות מידע רפואי שצריך להגן עליו ברמה הגבוהה ביותר, ואם הגננת אמרה למנהלת שהגיעו אליה היום 30 ילדים בריאים, היא עברה על החוק? יש פה צדדים לא שווים. הדוגמאות של ה- recital הן לא שוות. וה- recital מאוד חשוב בהקשר הזה, כי ה- recital בא ומדבר על - - - << קריאה >> קריאה: << קריאה >> מידע רפואי ישיר. << יור >> היו"ר שמחה רוטמן: << יור >> הוא רחב הרבה יותר, אבל כל המשלים שלו זה או "כהגדרתו בחוק זכויות החולה", דהיינו ביחסי מטפל-מטופל. זה הרבה מאוד מהדוגמאות, או מחלה, נכות, סכנה למחלה, היסטוריה רפואית, שזה קשור לזכויות החולה, השתתפות בטיפולים, בפסיכולוגיה, בביומדיקל. הוא באמת יותר מתכתב עם ההגדרה שהציעו מלכתחילה בהצעה של "מידע רפואי כהגדרתו בחוק זכויות החולה". ה- recital מאוד מתכתב עם ההגדרה הזאת. השאלה גם איך זה עובד בפועל. << אורח >> ראובן אידלמן: << אורח >> אני רק אגיד לפרוטוקול שאם המידע היחיד הוא על כך שבן אדם בריא, אנחנו לא נראה בזה מידע בעל רגישות מיוחדת, שמתייחסת למצבו הבריאותי של אדם, בהתאם להגדרה שמוצעת כאן. זאת לא הכוונה. << יור >> היו"ר שמחה רוטמן: << יור >> נצא להפסקה של חצי שעה לצערי. << הפסקה >> (הישיבה נפסקה בשעה 10:02 ונתחדשה בשעה 10:23.) << הפסקה >> << יור >> היו"ר שמחה רוטמן: << יור >> שבנו. דיברנו על הגדרת המידע הרפואי ועל כך שאומנם המילה של ההגדרה מאוד מאוד רחבה ב-GDPR, אבל הדוגמאות רובן ככולן יותר קרובות להגדרה של חוק זכויות החולה. << אורח >> שחף קצלניק: << אורח >> תודה רבה, אדוני. אני חושב שהמשמעות של השארת ההגדרה כמו שהיא כיום על מידע רפואי, אומרת למעשה שכל עסק בישראל הולך להחזיק מידע בעל רגישות מיוחדת, ואני אסביר. << יור >> היו"ר שמחה רוטמן: << יור >> הגדרה של מידע המתייחס למצב בריאותו של אדם? לאיזה ניסוח אתה מתכוון? << אורח >> שחף קצלניק: << אורח >> ההגדרה כמו שהיא "מידע רפואי כהגדרתו בחוק זכויות החולה". כמעט כל עסק בישראל היום מקבל אישור מחלה של עובד. באישור המחלה בדרך כלל לא כתוב שום מידע פרט לעובדה שהעובד נעדר מהעבודה. המשמעות של זה על העסקים היא שכל אישור מחלה כזה שייאסף, ייכנס תחת ההגדרה של מידע בעל רגישות מיוחדת. << יור >> היו"ר שמחה רוטמן: << יור >> אני כבר אומר לך, בלי קשר לזה, אני מניח איפה עסק רושם אישורי מחלה של העובדים, במאגר העובדים שלו. אני מניח שמאגר העובדים שלו מכיל מידע רגיש מאלף סיבות אחרות, וזאת הבעיה הכי קטנה שלו. << אורח >> שחף קצלניק: << אורח >> לא תמיד, ויש החרגה לכך גם בתקנות אבטחת מידע. לפעמים יש מידע שנאסף לפי דרישה חוקית, ובאישור מחלה זה לא תמיד המצב. << יור >> היו"ר שמחה רוטמן: << יור >> לא הבנתי. מידע המתייחס למצב בריאותו של אדם – יש מיעוט ממידע רגיש אם הוא נאסף לפי חובה חוקית? << אורח >> שחף קצלניק: << אורח >> זה לא מה שאמרתי. אמרתי שמידת האבטחה על אותו מידע יורדת אם המידע הזה נאסף לפי דרישה חוקית. זו תקנה 2(ב) לתקנות אבטחת מידע בתוספת השנייה. << אורח >> רחל ארידור הרשקוביץ: << אורח >> ההגדרות פה הן גם לשימוש, הן לא רק לאבטחה, לכן אני חושבת שזה לא רלוונטי. << יור >> היו"ר שמחה רוטמן: << יור >> אני לא חושב שזה רלוונטי. יותר מזה, במאגר עובדים מן הסתם יכול להיות מידע גם על בן הזוג, זה בדרך כלל יגלה לנו נטייה מינית, לא תמיד. כאשר מדובר באישה, יהיה מתי היא יצאה לחופשת לידה, מתי לא, שזה מידע רפואי פר אקסלנס, חד-וחלק, בלי ויכוחים. בקיצור, במאגר מידע של עובדים יש שם פרטי מידע רגישים מאלף סיבות אחרות, זו הבעיה הכי קטנה שלנו האישור מחלה, כולל האמירה, ככל שבאישור מחלה כתוב "נעדר מעבודתו בשל מחלה", אני בספק אם זה נכנס להגדרה. תיאורטית אם יהיה לנו בן אדם שנעדר כל שבוע ליום, אז אפשר יהיה לדעת. אבל שוב, יהיה שם מידע של אנשים שנעדרים מעבודתם בשביל טיפולי פוריות. << אורח >> שחף קצלניק: << אורח >> אבל אף אחד לא יודע שהם נעדרים בשביל טיפולי פוריות. << יור >> היו"ר שמחה רוטמן: << יור >> ודאי שכן, כי זאת עילה ספציפית לאיסוף המידע, זו עילה ספציפית לשחרר. כשבא עובד ואומר: אני רוצה שחרור לצורך טיפולי פוריות, הוא מקבל עוד 40 שעות מחלה בחודש, כל מה שיש בדיני עבודה. << אורח >> שחף קצלניק: << אורח >> אני נוגע בנקודה ספציפית. << אורח >> ראובן אידלמן: << אורח >> אם לא כתוב למה בן אדם נעדר, אלא רק עצם זה שהוא נעדר ליום מחלה, זה לא בהכרח יהיה מידע על מצבו הבריאותי של אדם. << יור >> היו"ר שמחה רוטמן: << יור >> נכנסנו פה לנישה שאם זאת הבעיה שלך, זו הבעיה הכי קטנה של האירוע. << אורח >> שחף קצלניק: << אורח >> העסקים הקטנים נתקלים בשאלות האלה ברמה היום-יומית. << אורח >> רחל ארידור הרשקוביץ: << אורח >> אני חושבת שאת ההגדרה כרגע לא צריך לצמצם משתי סיבות. היא צריכה להישאר מידע המתייחס למצב בריאותו של אדם. הסיבה הראשונה היא שברגע שהורדנו את צנעת חייו של אדם מהסעיף הראשון, אנחנו צריכים לחשוב איפה פריטי המידע החשובים לנו והרגישים נכנסים. אחד מהמקורות שנכנסים בהם זה מידע על בריאות. בנוסף, ב-GDPR אני לא רואה צמצום, לא למידע שמתייחס במישרין, לא רק לבדיקות, להפך גם כתוב: מידע מ-medical device, שזה כל השעונים החכמים. << יור >> היו"ר שמחה רוטמן: << יור >> זו שאלה אם שעון חכם נחשב medical device, אני לא יודע, אבל מן הסתם יש על זה פרשנות. << אורח >> רחל ארידור הרשקוביץ: << אורח >> יש גם מצב בריאותי, שזה גם משהו ניטרלי. << יור >> היו"ר שמחה רוטמן: << יור >> שוב, בעינייך הצהרת הבריאות של הקורונה כן נכנסת? << אורח >> רחל ארידור הרשקוביץ: << אורח >> כן. ככל שזה מידע שאדם אומר שאין לו חום, זה נכנס למידע של בריאות. << דובר >> נעמה מנחמי: << דובר >> אם יש לך רשימה של העובדים הבריאים שלך, ויש לך רשימה של העובדים שלך, אז גם יש לך - - - << יור >> היו"ר שמחה רוטמן: << יור >> אנחנו כבר נכנסים לשאלת העיבוד. במשרד הבריאות מאגר בזמן הקורונה, כל הילדים שהגיעו עם חתימה על הצהרות בריאות. זה גם קצת שאלת נישה. נאמרה פה אמירה לפרוטוקול שהיא מאוד חשובה, אני חושב שהפעלה של שכל ישר היא גם תמיד חשובה ככלל – למרות ש"שכל ישר", מכלל הן אתה שומע לאו, ויש שכל עקום, ואז זה מצב בריאותי, מנטלי – אני אומר שרוב הדוגמאות שם כן לוקחות אותנו למחוזות האלה. הדוגמה של המצלמה בבית, האם מאגר המידע של המצלמה בבית, בהנחה שעשינו את זה רק על צנעת אישותו של אדם, היא רואה שאני הולך על שתי רגליים, ללכת על שתי רגליים זה מצב בריאותי. כלומר, עד איזה רמה? מצב בריאותו של אדם בהגדרה הכי רחבה זה הכול, וכל דבר מעיד על מצב הבריאות, בוודאי אם אנחנו עושים "מעיד על", ולכן מאוד חשוב רמות ההסקה הנדרשות, כי כל דבר מעיד על מצב בריאותי. זה שאני יושב פה עכשיו זה מעיד על המצב הבריאותי שלי. << אורח >> עמית יוסוב עמיר: << אורח >> אנחנו הצענו את נוסח המידע המתייחס למצב בריאותו של אדם. זאת אומרת, זה קצת יותר מ"מעיד". << אורח >> עמרי רחום טוויג: << אורח >> עדיף כבר "מידע על" בריאותו של אדם. << יור >> היו"ר שמחה רוטמן: << יור >> אני בינתיים משאיר את זה "מידע המתייחס למצב בריאותו של אדם". נמשיך הלאה. אין לנו פה דברי הסבר, אני כן חושב שעיקר השימוש כן אמור להיות בהגדרה הזאת. אולי הייתי עושה "מידע המתייחס למצב בריאותו של אדם, לרבות מידע רפואי כהגדרתו בחוק זכויות החולה", כדי כן לעשות את ההכוונה. לנסות לייצר הצעה שמכוונת אותנו לעולם איסוף המידע הרפואי, שנמצא במסגרת משהו מיוחד ולא סתם כמו החולצות עם הסמיילים איך אני מרגיש היום. << אורח >> רחל ארידור הרשקוביץ: << אורח >> אדוני, צריך גם לחשוב על זה שגוגל למשל בשאילתות החיפוש שלה יכולה לדעת משאילתות החיפוש בסופו של דבר גם אם אני לא חולה. << יור >> היו"ר שמחה רוטמן: << יור >> אין ספק. << אורח >> רחל ארידור הרשקוביץ: << אורח >> ולכן אם אני אצמצם מדי - - - << יור >> היו"ר שמחה רוטמן: << יור >> לכן אני אומר שלא צריך לצמצם, אני חושב שההגדרה הזאת נכונה. אני כן חושב שהדוגמה שלך על גוגל זה מידע, הרגלי צריכה שמעידים על פרט לפי 2. זה בהגדרה אחרת, זה לא פה. אחרת, רשימת הנוכחים פה היא מידע על מצב בריאותי, כי אם אתם פה, בוודאי בזמן הקורונה, אבל גם לא בזמן הקורונה, אני מקווה שלא באתם לפה עם מחלות מידבקות שידביקו אותנו. << דובר >> נעמה מנחמי: << דובר >> יכולות להיות נכויות מסוימות. << אורח >> עמרי רחום טוויג: << אורח >> אם כבר גוגל מסביב לשולחן, הוויכוח הוא לא על מצב בריאותי של אדם. כמובן הרפרנס צריך להתייחס למצבו הרפואי, אני לא חושב שיש ויכוח לגבי זה. הוויכוח או ההצעה הם כמובן לדייק מה מידת דיוק ההסקה, כדי שתעיד באמת - - - << יור >> היו"ר שמחה רוטמן: << יור >> מידת הדיוק על ההסקה זה נכון לגבי הכול. וכשנגיע לסעיף שמעיד על (1) עד (8), נדבר על דיוק ההסקה. << אורח >> עמרי רחום טוויג: << אורח >> יכול להיות שנכון גם ברישא של ההגדרה של "מידע בעל רגישות מיוחדת", הרי כתוב "כל אחד מאלה". יכול להיות שכבר בפתח הרשימה נכון לייצר איזה ייחוס של מה מידת הדיוק. אני מזכיר את זה, כי זו נקודה חשובה. << יור >> היו"ר שמחה רוטמן: << יור >> נשמור את זה לסוף ההגדרה. "מידע גנטי כהגדרתו בחוק מידע גנטי". איך ההגדרה בחוק מידע גנטי? '"מידע גנטי" – מידע הנובע מבדיקה גנטית'. << אורח >> עמית יוסוב עמיר: << אורח >> ואם רוצים לצלול אפילו יותר לעומק, אז בדיקה גנטית מוגדרת כבדיקת דגימת דנ"א של אדם לשם אפיון והשוואה של רצפים של דנ"א. זה מאוד ממוקד. << יור >> היו"ר שמחה רוטמן: << יור >> ב-GDPR אני מנסה להבין מה זה "acquired genetic characteristics". << אורח >> גלעד סממה: << אורח >> אדוני טוען שהם יותר רחבים מהמידע שלנו? << יור >> היו"ר שמחה רוטמן: << יור >> איך בן אדם רוכש מידע? חשבתי שהמחקר בן דרווין ללאמרק הוכרע, אבל מסתבר שלא. << אורח >> אייל שגיא: << אורח >> בתורשה. << יור >> היו"ר שמחה רוטמן: << יור >> בן אדם חטף סרטן כתוצאה מקרינה, השתנה לו המבנה הגנטי. << דובר >> נעמה מנחמי: << דובר >> או עשה השתלת מח עצם. << אורח >> אייל שגיא: << אורח >> או תורשה. זו הדרך הרגילה. << יור >> היו"ר שמחה רוטמן: << יור >> נישאר עם ההגדרה הזאת. << דובר >> נעמה מנחמי: << דובר >> (4) – "מידע על אודות דעותיו הפוליטיות, או אמונותיו", הוספנו "הדתיות של אדם או השקפת עולמו". התוספות שמופיעות באפור, המטרה שלהן הייתה רק לדייק ולהבהיר מה הכוונה בהצעה של "אמונותיו של אדם", שהייתה בהצעת החוק הממשלתית. << אורח >> עמית יוסוב עמיר: << אורח >> חשוב לומר, זאת ההגדרה של היום, שדעותיו ואמונותיו של אדם מוגדרות כמידע רגיש. הכוונה היא לפרט למה בדיוק מתכוונים, ומה שלא מתכוונים לא ייכלל כמידע רגיש. אלה נראים הדברים שיש להם רגישות מיוחדת. << דובר >> נעמה מנחמי: << דובר >> זה די תרגום של ה-GDPR. << יור >> היו"ר שמחה רוטמן: << יור >> השאלה היא מה זה דעה פוליטית. האישי הוא הפוליטי כידוע. המונח פוליטי מפורש לפעמים כפוליטי-מפלגתי, תלוי בסיטואציה, כפוליטי לא מפלגתי. איסור תעמולה פוליטית זה בדרך כלל על תעמולה מפלגתית או שקוראת להצביע לאדם זה או אחר, או להימנע מהצבעה של זה או אחר. לכאורה יש אנשים בדעות פוליטיות שונות, אבל הם באותה מפלגה. יש מדינות ששאלות מסוימות הן בכלל לא שאלות פוליטיות אצלן, כי אין עליהן ויכוח פוליטי, ואז אולי זה נכנס להשקפות, אולי נכנס לדתות. זה שונה ממדינה למדינה. לצורך העניין, העמדות Pro-Life ו-Pro-Choice בארצות-הברית הן עמדות פוליטיות, בישראל זה לא קו שבר פוליטי בשום מקום. אין מפלגות שעוסקות בזה בכלל. זה יכול להיות עניין דתי, זה יכול להיות עניין אמוני, עניין פילוסופי, אבל זה לא עניין פוליטי כהגדרתו. אין לנו שום מפלגה שבמצע שלה שאלת ההפלות בכלל עולה. << אורח >> עמית יוסוב עמיר: << אורח >> אני חושב שהרעיון פה שהסיווג הוא פוליטי. אם יש מאגר מידע שאומר שדעתו הפוליטית של אדם מסוים היא כזאת ושל אדם מסוים היא אחרת. יש מאגר מידע שהמאפיין שלו הוא פוליטי, מסווגים אנשים לפי דעותיהם הפוליטיות. לא חייבים לדבוק דווקא במפלגתיות, יש, כמו שאתה אומר, פוליטיקה שהיא לאו דווקא מפלגתית, אבל זה חייב להיות מאפיין פוליטי. אם נושא ההפלות לדוגמה הוא לא נושא פוליטי בישראל, זה לא ייחשב כמאגר מידע - - - << יור >> היו"ר שמחה רוטמן: << יור >> הוא ייחשב אולי לעניין אמונות דתיות. המאפיין של משהו כפוליטי או לא פוליטי זו השאלה האם הדבר הזה שנוי במחלוקת פוליטית. אני יודע שזה נושא רגיש, בטח מסביב לשולחן הזה, אבל למשל כאשר עלתה טענה, ואני מביא את זה בכוונה כדוגמה, עלתה טענה בשאלה האם נאומה של נשיאת העליון בסוגיית הרפורמה, האם זה פוליטי או לא. אם זה פוליטי, אסור היה לה להתבטא, אם זה לא פוליטי, זה מקצועי? השאלות האלה נידונות בהרבה הקשרים אחרים, ולכן ההבחנה מהו פוליטי, מהי השקפת עולם, מה שנוי במחלוקת, האם העובדה שמשהו שנוי במחלוקת פוליטית בין מפלגות הופך אותי לפוליטי או לא לפוליטי היא שאלה שנדונה בהרבה מאוד הזדמנויות, וזה יכול להיות מרחיב וזה יכול להיות מצמצם. כאשר אנחנו עוסקים בסופו של דבר בפוטנציאל החשיפה, אם כל דבר יכול להפוך לפוליטי, אז ממילא כל מידע על אדם משקף איזה עמדה פוליטית. אם אנחנו לוקחים פוליטיקה מפלגתית, אולי זה מצמצם מדי. צריך פה איפשהו לחשוב וגם באיזה רזולוציה. << אורח >> ניר גרסון: << אורח >> ההתלבטות נכונה, אבל יש פה כמה רכיבים וחוט השני בהגדרה של כולם. לא חייבים להבחין דווקא מה השקפת עולם, מה אמונה דתית או מה - - - << יור >> היו"ר שמחה רוטמן: << יור >> אין ספק, אבל אז זה אומר שאני מוסיף את המילה "השקפת עולמו", כדי לוודא שאני כולל את זה. << אורח >> ניר גרסון: << אורח >> חוט השני בין כולם שפשוט הם לא סתם דברים כמו אמונה שוורוד זה צבע יפה, שאני מאמין שוורוד זה צבע יפה. לא לזה זה מכוון, אלא להשקפה יותר כוללת, יותר מלמדת על אדם באופן יותר מהותי, דברים יותר מובהקים ויותר גדולים. << יור >> היו"ר שמחה רוטמן: << יור >> שוב, תחשוב, במדינה כמו ארצות-הברית, רפובליקני או דמוקרטי, ככל שהסיווג זה חצי-חצי, להגיד שבן אדם הוא רפובליקני או דמוקרטי זה מידע רגיש? לא יודע. ודאי כן בהגדרה פה. << אורח >> ראובן אידלמן: << אורח >> גם ב-GDPR, אדוני. כך מקובל. צריך להגיד שצמצמנו לעומת החוק הקיים, שמדבר על דעותיו ואמונותיו באופן כללי. ההצעה שלנו מצומצמת. << יור >> היו"ר שמחה רוטמן: << יור >> השאלה שלך חידדה מבחינתי את הצורך להוסיף את המילים "או השקפת עולמו", מבחינתי זו הייתה החשיבות בשיח הזה, כדי להבין שאנחנו רוצים טיפה יותר רחב, אבל לא שוורוד זה צבע יפה. זה שוורוד זה צבע יפה זה אולי מעיד על תחומים אחרים, אבל לא על השקפת עולם. << אורח >> לירון בנדק: << אורח >> חברת הסעות שארגנה רשימה ממוחשבת של כל מי שנסע להפגין נגד הרפורמה בחקלאות. קרה מקרה בהתאחדות האיכרים. האם זה נחשב? זה כן היה פוליטי? << יור >> היו"ר שמחה רוטמן: << יור >> לכאורה כן. זו דעה פוליטית והשקפת עולם. << אורח >> לירון בנדק: << אורח >> זה צריך להיות מידע בעל רגישות מיוחדת? << יור >> היו"ר שמחה רוטמן: << יור >> על פניו כן. ככל הנראה מפלגת ימין פוליטית כלכלית, לא תרצה את המפגינים האלה, או שתדע להיזהר מהם. זה מידע פוליטי פר אקסלנס. << אורח >> לירון בנדק: << אורח >> לאו דווקא. זה לא היה פוליטי ברמה המפלגתית. זה ספציפית רפורמה שלא הייתה כזאת. לא כל הימין היה כאן ולא כל השמאל היה כאן. << יור >> היו"ר שמחה רוטמן: << יור >> כנראה שזה ייפול יותר להשקפת עולם. פוליטי זה לא חייב להיות בין-מפלגתי. בתוך הליכוד יש קבוצת מתפקדים של נהגי מוניות, אז התמיכה ברגולציה כזאת וכזאת על נהגי מוניות היא שאלה פוליטית, שיש לה השלכות על הפריימריז בתוך הליכוד. << אורח >> צחי שלום: << אורח >> מצלמה שמצלמת שטח ציבורי, ומתקיימת שם הפגנה. זה מסמן אותנו באופן אוטומטי. וזה כל מצלמה שנמצאת בשטח הציבורי, שמצלמת עסק. << יור >> היו"ר שמחה רוטמן: << יור >> שוב, אם תאסוף את המידע ותנתח אותו ככה. בדרך כלל מצלמה סתם כך - - - << אורח >> צחי שלום: << אורח >> אני לא צריך לנתח, הוא קיים. הוא נאסף, הוא לא מנותח. << יור >> היו"ר שמחה רוטמן: << יור >> שוב זו בדיוק ההבחנה בין מידע לבין ניתוח. << אורח >> צחי שלום: << אורח >> נגיע לשם. << יור >> היו"ר שמחה רוטמן: << יור >> נכון. כשנגיע לשם. נצא להפסקה של עשר דקות. << הפסקה >> (הישיבה נפסקה בשעה 10:44 ונתחדשה בשעה 11:08.) << הפסקה >> << יור >> היו"ר שמחה רוטמן: << יור >> שבנו. << דובר >> נעמה מנחמי: << דובר >> הזמן שלנו לא מאוד ארוך, ויש לנו כאן אנשים שנערכים בכל פעם לדיון, ואנחנו לא מצליחים להגיע אליהם, שזה אנשי הזיהוי הביומטרי. << יור >> היו"ר שמחה רוטמן: << יור >> אנחנו כבר מגיעים לזה. סיימנו גנטי, נעבור לביומטרי. << דובר >> נעמה מנחמי: << דובר >> נדלג לשם. סעיף 8, עמ' 4. << יור >> היו"ר שמחה רוטמן: << יור >> נסיים גם את 6, "מידע על אודות עברו הפלילי של אדם", זה לא מעורר בעיות. "מזהה ביומטרי – נתון ביומטרי המשמש לזיהוי אדם או לאימות זהותו, או אמצעי [זיהוי] ביומטרי שניתן להפיק ממנו נתון כאמור; לעניין זה "ביומטרי" – מאפיין אנושי, פיסיולוגי או התנהגותי ייחודי, הניתן למדידה ממוחשבת." << דובר >> נעמה מנחמי: << דובר >> יש פה הגדרה של מזהה ביומטרי, שהיא הגדרה בתוך הגדרה, אז כבר נאשר את שתיהן, ככל שהוועדה - - - << יור >> היו"ר שמחה רוטמן: << יור >> ההגדרה, לפחות ממה שאני רואה, ב-GDPR, זה כבר המידע המעובד, לא הניתן לעיבוד. זה דרמטי מאוד, בגלל שכמו שאמרנו, כל מצלמה ברחוב מכילה מידע ביומטרי שניתן לעיבוי וזיהוי אדם לפי מאפיינים מיוחדים, כל מיקרופון, כל הקלטה – הכול מכול וכול הוא מזהה ביומטרי, לפי ההגדרה של "ניתן ל-". לפי ההגדרה שעכשיו הוא מזהה ייחודי של אדם, אחרי העיבוד, אחרי ה-" specific technical processing" של ה-GDPR. שם אנחנו על קרקע בטוחה ומצוקה במה אנחנו מדברים, אז אני אשמח שתתייחסו לזה. << אורח >> עמית יוסוב עמיר: << אורח >> אני מציע שהממונה על יישומים ביומטריים, שבאה במיוחד לעניין הזה, תתייחס. << אורח >> נעמה בן צבי: << אורח >> תודה אחרי הבילד-אפ שהיה פה שלושה ימים. רק בשורה אחת מי אנחנו, זו יחידה שקמה אי שם ב-2011. אנחנו למעשה הרגולטור הממשלתי לעולם הביומטריה. אנחנו מפקחים על פרויקט התיעוד הלאומי והמאגר הביומטרי, אנחנו מנחים את כלל הממשלה, יש לנו מדיניות מפורסמת על פי החלטת ממשלה, guidelines וכו', ואנחנו גם עוסקים בתהליכי הזדהות, לאו דווקא ביומטריים. כלומר, אנחנו רואים את כל ה-360 - - - << יור >> היו"ר שמחה רוטמן: << יור >> הווידיאו שמופיע עכשיו על הקיר, את מפקחת עליו? << אורח >> נעמה בן צבי: << אורח >> אני מיד אתייחס לנושא של הווידיאו, אני אתייחס לכול. כאמור אנחנו שייכים למערך הסייבר הלאומי. תפקידו של מערך הסייבר באופן כללי הוא הגנת סייבר, אבל היחידה שלנו עוסקת לא רק בהגנת סייבר, בנושא הזה הדגש הוא דווקא יותר על ביצועי מערכות, איך המערכות האלה עובדות, וגם פרטיות ואתיקה. ביחס להגדרה שהציג אדוני, שכרגע מופיעה בהצעת החוק. ההגדרה הזאת תואמת להגדרות קודמות בחקיקה ישראלית, שעסקה בביומטריה. בישראל למעשה מבחינת המטריה המשפטית עד כה יש חקיקות פרטניות לפרויקטים ביומטריים. הבולט זה כמובן המאגר הביומטרי הלאומי, התעודות והדרכונים, שכולכם ודאי מכירים, וגם יש את החסד"פ שעוסק בנושא הזה בהקשרים של המשטרה, יש תזכיר חקיקה שנוגע לביומטריה מזרים ולתיקון חוק הכניסה לישראל שאמור להגיע בקרוב לדיונים פה. ההגדרה בחקיקה הישראלית התייחסה לאמצעי ביומטרי ולנתון ביומטרי, כשאמצעי ביומטרי הוא המידע הגולמי והנתון הביומטרי הוא התרגום הממוחשב, הקובץ הבינארי שאיתו המערכת משתמשת לצורך השוואה. כאשר מסתכלים על ההגדרות של המדיניות שלנו, גם שם אנחנו מתייחסים לאמצעי ביומטרי ונתונים ביומטריים, ומתייחסים לשניהם כביומטריה. כמובן יש הבדל, אני מיד אסביר מהו. ההגדרות האלה גם נובעות מתקן ICO ומתקנים מקצועיים נוספים בנושא. הדבר הראשון שחשוב לי להגיד שמבחינת הצד הקוהרנטי ההגדרה הזאת תואמת קוהרנטית להגדרות של התקנים המובילים, להגדרות של התקנים המקצועיים ולהגדרות בחקיקה עד כה. ביחס למשמעות של ההבדל בין אמצעי לנתון. כמובן האמצעי הוא המידע הגולמי והנתון הוא התרגום הממוחשב. אני אגיד באופן גס, למעשה כדי ליצור את הנתון, שהוא תבנית שאיתו מבצעים את ההשוואה, התבנית נוצרת פר אלגוריתם שבו משתמשים. אני בכוונה אשתמש בזיהוי פנים, כי אני יודעת שזה מודל שמסתכלים עליו פה בדיון. כל מערכת ביומטרית לזיהוי פנים, ברגע שאתה מייצר את התבניות, התבניות האלה תואמות לאלגוריתם הספציפי. כלומר, אינהרנטית מלכתחילה זה מאגר שאנחנו קוראים לו "מאגר ביומטרי", אבל הוא פחות רגיש, כי אני לא יכולה להשתמש בו עם כל אלגוריתם. אם תפסתי מאגר כזה וקיבלתי אותו, אני לא יכולה לקחת אלגוריתם אחר, ואם אין לי את האלגוריתם הספציפי, למעשה אני לא יכולה להשתמש בו. ולכן אנחנו מתנגדים לרידוד של ההגדרה כאן של המזהה הביומטרי, גם בגלל שהיא לא תואמת את - - - << יור >> היו"ר שמחה רוטמן: << יור >> את אומרת שאת רוצה שזה יהיה נתון ולא אמצעי. << אורח >> נעמה בן צבי: << אורח >> לא. קודם כול אמצעי. כלומר, גם בניסוח הייתי מחליפה את הסדר, הייתי מתחילה באמצעי ואחר כך בנתון מבחינת סדר החשיבות של הדברים. למעשה הערך החשוב ביותר מצוי במידע הגולמי, לא בנתון, לא בתבנית. << יור >> היו"ר שמחה רוטמן: << יור >> אני שואל שוב, האם לצורך העניין מאגר סרטי הווידיאו של ערוץ הכנסת, שמשדר לנו עכשיו, ותודה לכם על כך, הוא מאגר מידע רגיש, וממילא אנחנו איתו בבעיה מאוד מאוד קשה, כי הוא גם מפורסם לרבים אפילו? << אורח >> נעמה בן צבי: << אורח >> קודם כול, מקצועית זה מאגר ביומטרי, ודאי. כל סרטוני הווידיאו אני יכולה להשתמש בהם, ויש מערכות שיודעות להשתמש בזה, מערכות שעוסקות במה שנקרא "in the wild", אני יכולה להשתמש במערכות מסחריות כאלה לא מעטות. אנחנו מבינים את הקושי, ואני עכשיו אתמקד במודלים ספציפיים. יש מודלים שזה ברור, טביעת אצבע, תמונת טביעת אצבע, אני לא מכירה שימוש אחר למעט השימוש של ההשוואה הביומטרית. פנים זה משהו אחר. לפנים יש משמעות כפולה, אפילו משולשת, כי תמונות פנים זה דבר שהיה קיים עוד קודם, ומבחינה חברתית, סוציולוגית, פסיכולוגית, אנחנו משתמשים בזה להמון צרכים אחרים, ולכן קיים פה קושי. וכבר חברינו ברשות להגנת הפרטיות רידדו למשל בתקנות אבטחת המידע את ההתייחסות לתמונות פנים – אני זוכרת מהדיונים אז – מאותה סיבה. לכן ההצעה שלנו היא לתת ביטוי למודל הזה וגם למודל של הקלטות קוליות, אבל בעיקר לדעתי הקושי המשמעותי ביותר הוא לגבי תמונות פנים ביחס להכבדה הקיימת בסעיף של העיצומים הכספיים, בהתייחס לגודל המאגר. זה הפתרון שאני רואה. ביחס למודלים האלה, שאנחנו יודעים שהם בשימוש חברתי יום-יומי וכו', ההצעה שלנו שעד למאגר של 100,000 למעשה יקראו למאגר הזה "מאגר בעל רגישות מיוחדת", זה גם מאוד מתאים, זה לא נכון להתייחס עם ההגדרה של הסוג של המידע, אלא במאפיינים של המאגר, כי על זה לדעתי צריך להסתכל. מאגר של עד 100,000 צריך לדעתנו לקבוע שיהיה עיבוד ביומטרי - - - << יור >> היו"ר שמחה רוטמן: << יור >> אני הולך ומשתכנע שההבחנה בין ביג דאטה לבין לא ביג דאטה צריכה להיעשות בהגדרה נפרדת, ואולי אפילו יהיה כתוב לפי פרט (1) שלא צריך ביג דאטה, כי לצורך העניין התנהגות מינית, מבחינתי כבר בשניים יש בעיה. בדברים אחרים יכול להיות שזה צריך לרדת לתקנות. << אורח >> נעמה בן צבי: << אורח >> אני אשלים את דבריי. לדעתנו במודלים, שגם הכנסת במסמך ההכנה פה התייחסה אליהם, שהם המודלים שנמצאים גם בהמון מקומות אחרים, אנחנו משתמשים בהם ביום-יום שלנו, לאו דווקא בהקשרים של השוואה ביומטרית, אבל הם ניתנים להשוואה ביומטרית, וזה כלי. זאת אומרת, המידע הביומטרי כשלעצמו ברוב המקרים, אני אגיד באופן גס, כי זה לא מדויק – כשלעצמו עם תמונת טביעת אצבע אין לי הרבה מה ללמוד על הבן אדם, הוא כלי לזיהוי שלו. זה לא נכון לכל המודלים, למשל דנ"א זה משהו אחר - - - << יור >> היו"ר שמחה רוטמן: << יור >> מזהה? << אורח >> נעמה בן צבי: << אורח >> אנחנו משתמשים בו ככלי, זה מפתח. << יור >> היו"ר שמחה רוטמן: << יור >> אם זה Index finger, אז בכלל. << אורח >> נעמה בן צבי: << אורח >> אם זה ה-Index finger, זה יותר נפוץ. אבל ככל שהמאגרים האלה יותר גדולים הם הופכים להיות נכס אסטרטגי. תמונת הפנים הבודדת שלי, תמצאו את התמונה שלי, אם תגגלו את השם שלי או תיכנסו לפרופיל הפייסבוק שלי, אבל ברגע שהמאגר הוא גדול, ואנחנו מציעים למתוח את הקו בהתאם לדרגות שמציעה הרשות, וזה גם תואם למסמכים שלנו, לקווים שלנו של מעל 100,000, זה הופך להיות נכס אסטרטגי, ולכן לדעתנו פה כן צריך להתייחס גם למאגר כזה עם מידע גולמי כמאגר בעל רגישות מיוחדת, ולהטיל את העיצומים בהתאם. << יור >> היו"ר שמחה רוטמן: << יור >> שוב, ה-GDPR לא כולל דבר כזה. << אורח >> נעמה בן צבי: << אורח >> נכון, אז עכשיו אני רוצה רגע להתייחס להשוואה ל-GDPR. כזכור, ה-GDPR זו חקיקה שנכתבה אי שם בשנת 2012, לפני יותר מעשר שנים, היא נכנסה לתוקף בסביבות 2016. למעשה במיוחד בעולם זיהוי הפנים הקפיצה האדירה לזיהוי פנים נעשתה החל מ-2014, והיום אחרי עשור זו קפיצה. אין לי איך להגדיר אותה אלא כקפיצה מטורפת, גם מבחינת נגישות כלי הזיהוי או מערכות ההשוואה וגם מבחינת הדיוק. היום היכולת שלי לעבור ממצב שיש לי מאגר תמונות לתהליך של זיהוי ביומטרי הוא די פשוט. היום אני יכולה להשתמש למשל בשירות של Amazon Rekognition. אני מכירה חברה עם אלגוריתמים מאוד מתקדמים, שאתה יכול לקנות את זה באון-ליין ולהוריד תמורת סכום של 800 יורו. אפרופו הדיונים הקודמים על מאמץ סביר, אני חושבת שזה עלה באחד הדיונים הקודמים פה - - - << יור >> היו"ר שמחה רוטמן: << יור >> אין ספק שזה מידע. << אורח >> נעמה בן צבי: << אורח >> הקפיצה הזאת מלהגיע לתהליך הביומטרי היא קפיצה שהיום היא יחסית נגישה. יש מוצרי מדף, העלויות לא יקרות, אתה יכול לקנות את זה כשירות. לכן צריך להביא את זה בחשבון. זה לא היה מזמן, אבל בעולם הטכנולוגיה עשור זה המון זמן. וגם צריך לזכור שהמבנה של החקיקה, לפחות כרגע אצלנו בישראל, הוא לא המבנה של ה-GDPR שמתייחס לדברים ששמענו פה בדיונים קודמים. יש פה עדיין התייחסות לגדלים של מאגרים. וכך אנחנו אגב מנחים את משרדי הממשלה. אנחנו בשנה האחרונה עשינו עבודת מטה - - - << יור >> היו"ר שמחה רוטמן: << יור >> יש הבדל מאוד מאוד גדול בין משרדי ממשלה לבין שוק. << אורח >> נעמה בן צבי: << אורח >> נכון, אבל למשל אנחנו רואים בכפל מאגרים, אני נותנת את הדוגמה הממשלתית, למרות שברור לי שהיא לא חלה על רוב הקליינטים של החקיקה הזאת, אבל כתפיסה שלנו למשל, ככל שיש יותר מאגרים זה מכפיל את הסיכון. אם המאגרים יותר גדולים, הסיכון יותר גבוה. לכן לדעתנו בהקשר הזה גודל המאגר הוא פרמטרי בלבד. << יור >> היו"ר שמחה רוטמן: << יור >> ברור. אני פשוט חושב לצורך העניין שאם את מזהה גודל מאגר שמהווה נכס אסטרטגי וכדומה, את יכולה לזהות נכס אסטרטגי בלי שום קשר לשאלת הגדרת הפרטיות שבו. << אורח >> נעמה בן צבי: << אורח >> הציפייה שלי שאדם שמחזיק נכס כזה, ידע להחזיק אותו ברמה טובה. << יור >> היו"ר שמחה רוטמן: << יור >> אני לא בטוח שאני זורם איתך על הגדרת המושג נכס אסטרטגי, אני לא מספיק יודע בשביל להתווכח איתך, אבל בלי לקבל את זה כנתון, אלא מה שאת אומרת, זה בסדר, זה לגיטימי, זה מספיק חשוב בלי שאני אמרתי, באופן עקרוני אנחנו לא נותנים לאנשים פרטיים להחזיק את הנכסים האסטרטגיים של מדינת ישראל, גם אם אין להם שום אלמנט של פרטיות. כשאנחנו עושים פיקוח על הייצוא הטכנולוגי, אנחנו לא דנים בשאלה האם הפיתוח הזה עונה להגדרת סוד מסחרי בחוק עוולות מסחריות, או אם נרשם עליו פטנט, לעניין פטנטים. יכול להיות שזה לא מספיק לפטנט, זה לא מספיק חידוש לעניין פטנט, יכול להיות שאם אני אביא את זה לבוחן הפטנטים הוא יגיד שזה לא מספיק חידוש, יכול להיות שזה לא סוד מסחרי, יכול להיות שזה כן סוד מסחרי, אבל אם זה נכס אסטרטגי של מדינת ישראל, אני אשמור עליו באמצעים האסטרטגיים של מדינת ישראל. << אורח >> נעמה בן צבי: << אורח >> לא אמרתי שמדובר על נכס אסטרטגי למדינת ישראל דווקא, אני מדברת על נכס אסטרטגי באופן כללי, זה יכול להיות גם אסטרטגי מבחינה עסקית, זה יכול להיות נכס בעל משמעות. אם אני אתן לאדוני דוגמה ספציפית למשל, אני חושבת שכדאי אולי לדבר על Use cases, אני חושבת שזה יכול לעזור לדיון, למשל חברת Clearview, שאני בטוחה שכולכם מכירים, הנכס שלה, עם כל הכבוד, הוא אלגוריתם ההשוואה שלה, הנכס שלה הוא העובדה שהיא עשתה scraping ממקורות גלויים לחלוטין, ואספה תמונות בהיקפים משמעותיים מאוד. זו חברה שהיא כל הזמן under debate ותחת תהליכים משפטיים כאלה ואחרים, והיא ממשיכה לפעול. אתם יכולים להיכנס לאתר שלהם, אתם יכולים לראות מי הלקוחות שלהם. הנכס שלהם זה המאגר העצום שלהם, למרות שזה מאגר שנלקח ממקורות גלויים לחלוטין ברשת. אני מסבירה שמבחינת המשקל של הדברים ואיפה החשש נמצא, צריך להביא את זה בחשבון. << יור >> היו"ר שמחה רוטמן: << יור >> שוב, השאלה היא נכונה. יכול להיות שצריך לפתח כלי רגולטורי לנושא הזה. יכול להיות שצריך לדאוג שהמידע הזה לא ידלוף. לא בהכרח המשמעות של זה היא שהוא מידע פרטי עם רגישות מיוחדת. אין פה סימן שוויון בין הטענות האלה. לצורך העניין, תאגידי המים בישראל, השאלה כמה מים צרכתי בבית שלי, בוודאי אחרי שהורדנו את ההגדרה הרחבה של שימוש ברשות היחיד, אני לא חושב שהשאלה אם צרכתי 21 קוב או חמישה קוב בחודש האחרון זה מידע בעל רגישות מיוחדת, אבל זה ודאי מידע. עדיין תעשי אותה בביג דאטה, אני יכול לדמיין כמה נזקים אסטרטגיים שיכולים להיווצר למדינת ישראל, וברמה מסוימת אם תשמרי את המעקב לאורך זמן, אפילו שזה לא מידע לצילום מצב עכשווי – אם תעשי את זה ביג דאטה עם אורך זמן מסוים וכמות מידע מסוימת, תוכלי לגזור ממנו אחורה כל מיני דברים. ואם עוד לא פיתחו את השיטה, יושבים פה מספיק הייטקיסטים, קדימה, אפשר לפתח. איסוף המידע הזה ממקורות גלויים, יכול להיות שקל, יכול להיות שלא. שעון המים שלי – אני מקווה שאני לא מגלה פה סודות מדינה – נמצא בחוץ. לא צריך להיכנס אליי לרשות היחיד בשביל לראות את שעון המים שלי, ויכול להיות שחברה תעשה ים כסף מלבדוק את מוני המים בעיר מסוימת על מידע שהוא יחסית גלוי. האם בגלל שייתכן לזה שימוש או שמחר בבוקר גם יהיה שימוש, תבואו ותציגו לי את המידע הזה, אני אבוא ואגיד שבגלל שזה כמות הקובים של מים שנצרכו ביחידת דיור מסוימת, בגלל זה זה מידע רגיש? << אורח >> נעמה בן צבי: << אורח >> לא. קודם כול, אני חושבת שהניסיון לעשות השוואה בין מידע ביומטרי לסוגי מידעים אחרים שדנים פה הוא קצת בעייתי, כי כמו שאמרתי קודם בגדול, באופן גס, המידע עצמו כשלעצמו, המשמעות שלו, החשיבות שלו, הרגישות שלו נובעת מזה שהוא מפתח למידעים אחרים. המידע שאדוני הציג, בהנחה שהיו אוספים אותו, כשלעצמו הוא לא מידע - - - << יור >> היו"ר שמחה רוטמן: << יור >> נכון לעכשיו, כי עוד לא פיתחת את השיטה הסטטיסטית בביג דאטה לזהות לפי כמות הקובים מה אני חושב על האומנים בספוטיפיי. << אורח >> נעמה בן צבי: << אורח >> בסדר גמור, אבל אני לא בטוחה שנכון להשליך מכל סוג מידע על הדיון שבו אנחנו עוסקים. << יור >> היו"ר שמחה רוטמן: << יור >> אני מסכים, ולכן אני אומר שההבחנה היא ביג דאטה, לא ביג דאטה. << אורח >> עמית יוסוב עמיר: << אורח >> אם אפשר לחדד, קודם כול צריך להבין שיש לנו פה הגדרה של מזהה ביומטרי, שהיא הגדרת עזר, ואחר כך הגדרה בתוך מידע בעל רגישות מיוחדת. קודם כול השאלה מהו מזהה ביומטרי היא גם נכללת בהגדרה של מידע, ופשוט יש פה את ההתייחסות המקצועית שקודם כול ברמת הסדר - - - << יור >> היו"ר שמחה רוטמן: << יור >> מידע זה חייב להיות. אין ספק שזה מידע. << דובר >> נעמה מנחמי: << דובר >> ראשית, האם הוועדה מאשרת את ההגדרה של מזהה ביומטרי? ואחר כך נדון האם - - - << יור >> היו"ר שמחה רוטמן: << יור >> לעניין מידע אני חושב שזה די טריוויאלי, בוודאי כאשר זה מחבר לאדם ספציפי. << דובר >> נעמה מנחמי: << דובר >> עכשיו השאלה עוברת להיות, האם זה בעל רגישות מיוחדת. << אורח >> עמית יוסוב עמיר: << אורח >> ככלל, המאפיינים עצמם של מידע ביומטרי לגישתנו, לגישת גורמי המקצוע, לגישת הפסיקה לצורך העניין – המאפיינים עצמם של מידע ביומטרי, בניגוד לצריכת המים של אדוני - - - << יור >> היו"ר שמחה רוטמן: << יור >> של אמצעי או נתון? << אורח >> עמית יוסוב עמיר: << אורח >> גם של אמצעי, ככלל. עוד שנייה אני אגיע לחריג. ככלל, הנתון הביומטרי הוא מפתח לא ניתן לשינוי. תיאורטית אפילו מספר תעודת זהות אני יכול להחליף, את טביעת האצבע שלי, את תמונת הפנים שלי, אלה מפתחות כמעט לא ניתנים לשינוי, ולכן גם הספרות, גם הפסיקה, גם החקיקה הקיימת, הכירו בהם כבעלי רגישות מיוחדת. קטגורית זה בעל רגישות מיוחדת, חד-משמעית. אנחנו מודעים היטב לעובדה, וזה נידון גם עם הייעוץ המשפטי. יש פה קושי בגלל שתמונות פנים והקלטות קול הם כמו חומרים דו-שימושיים. בסוף יש פה שתי נפקויות: נפקות אחת אמרנו לעניין רישום מאגרי מידע, ונגיע לזה, גם ככה הספים שם הם מאוד מאוד גבוהים, לצורך העניין מידע בעל רגישות מיוחדת נכנס שם בתמונה על מאגרים של חצי מיליון - - - << יור >> היו"ר שמחה רוטמן: << יור >> זה לעניין חובת הרישום. << אורח >> עמית יוסוב עמיר: << אורח >> ולעניין העיצומים הכספיים חשבנו להציע החרגה, גם לעניין הקלטות קול, ובעיקר לעניין תמונות פנים, שהתייחסו או למאגרים מעל 100,000 איש – שוב, האסטרטגיות, הרגישות, זה לעניין הפרטיות כרגע. אני מסכים עם אדוני שאנחנו לא מכניסים צרכים אסטרטגיים אחרים, אבל היקפי הפגיעה בפרטיות שיכולים להיות מדליפת מאגרים כאלה, גם אם זה רק אמצעי, גם אם זה רק חומר הגלם, לא מה שאומרים לנו פה גורמי המקצוע לגבי קלות ההעברה, דליפה של - - - << יור >> היו"ר שמחה רוטמן: << יור >> היא אומרת לך שמידע גלוי, גם אם הוא בכלל לא מאגר - - - << אורח >> עמית יוסוב עמיר: << אורח >> עזוב רגע מידע גלוי. מה שגלוי, הוא גלוי. איך אני צריך לאבטח מאגר מידע שברשותי, כמה אני צריך להקפיד על הוראות הדין, אנחנו מציעים לסכם את ההצעה שיהיה חריג למאגרים שלא נעשה בהם בפועל השימוש הביומטרי שקובע את הסף על 100,000 - - - << יור >> היו"ר שמחה רוטמן: << יור >> יש לי הצעה יותר טובה במחילה, אני חושב, כי זה משהו שיחזור על עצמו בעוד דברים, שנבוא ונגיד שיש מידע, יש מידע בעל רגישות מיוחדת, ויש סוגים שגם פה כדאי להשאיר, ואולי בשביל זה צריך את הסעיף של הכרזת תקנות באישור ועדה, לא יודע, עם הפניה לכמות. ואז נבוא ונגיד: מידע על תמונות מעל 10,000, מידע על קול מעל 100,000, לפי הטכנולוגיה, לפי המאמץ, זה גם יכול להשתנות ולהיות יותר גמיש, אבל נקרא לזה "סעיף הביג דאטה". לכאורה מאגר סרטי הווידיאו של ערוץ הכנסת, עם תוכנה של פחות מ-800 יורו, אני יכול להושיב מתכנת שיאתר לי בקלות. אולי יום אחד אני אחבר את זה למערכת הנוכחות של הכנסת, ואז אני אטפס בגרפים אצלנו, תחפשו לי באיזה ועדות נכח שמחה רוטמן, ובאיזה דקה ושנייה, ובהליך לא מאוד מורכב יאתר לי את זה. מילא אני דמות ציבורית, אין לי פרטיות בכלל, הלך עליי, אבל אני אוכל לעשות את זה גם על כל גורם שנמצא בכל ועדה, לפי אלגוריתם של זיהוי פנים. ואם הטכנולוגיה הזאת עוד לא קיימת בנגישות, בעוד שנה היא תהיה קיימת בנגישות. << אורח >> נעמה בן צבי: << אורח >> היא קיימת, ודאי. אתה יכול להתקין יכולת כזאת ביחידת - - - << יור >> היו"ר שמחה רוטמן: << יור >> היום רק את יודעת איך, אני עוד לא יודע איך זה מופעל, מחר זה יהיה אפליקציה בטלפון של כל אחד. << אורח >> עמית יוסוב עמיר: << אורח >> אדוני הביא קודם מהמקורות את ההבחנה בין הכלל לחריג. אנחנו אומרים שיש לנו פה חריג, אומנם הוא חריג מרכזי, הסיפור של תמונות הפנים והקלטות הקול, אבל אני אומר שמידע ביומטרי, לצורך העניין טביעות אצבע, הדוגמה הכי קלסית - - - << יור >> היו"ר שמחה רוטמן: << יור >> היום תמונות פנים, מחר בבוקר עוד לפני המערכון הידוע של מונטי פייטון על ההליכות המשונות, אפשר לזהות לפי צורת הליכה של אדם בדיוק מי הוא. << אורח >> נעמה בן צבי: << אורח >> דווקא פה אני חייבת להגיד, אדוני, שבעולם הביומטריה לקחת מודל ולהפוך אותו למסחרי ולסקלבילי זה לא דבר פשוט, זה לוקח לא מעט שנים. << יור >> היו"ר שמחה רוטמן: << יור >> לא מעט שנים, עשר שנים. << אורח >> נעמה בן צבי: << אורח >> גם קודם השתמשו בזיהוי ביומטרי, אני רק אומרת שהייתה קפיצה בדיוק, זה הכול. << יור >> היו"ר שמחה רוטמן: << יור >> זה עניין של השקעה ותשומת לב ומודל. << אורח >> נעמה בן צבי: << אורח >> הדברים בנושא הזה דווקא - - - << יור >> היו"ר שמחה רוטמן: << יור >> שוב, האם מחר בבוקר לא יהיה מישהו שיוכל לעשות את זה גם אם כולנו נלך עם כיסוי פנים למשל לפי צורת הליכה? << אורח >> נעמה בן צבי: << אורח >> ודאי יש היום אלגוריתמים. למשל בתקופת הקורונה האלגורתמיקה התגברה על הנושא הזה בתוך ארבעה-חמישה חודשים. << אורח >> עמית יוסוב עמיר: << אורח >> אדוני, מה שאנחנו מבקשים להציע שיהיה כלל ויהיו לו חריגים. אנחנו פה בשלב החריגים. קודם כול אנחנו מבקשים לתקף את הכלל, שככלל מידע ביומטרי הוא מידע רגיש. אם יש, ויש, אנחנו מודעים לזה, פריטים מסוימים שהם דו-שימושיים, ואדוני אומר שאולי יהיו בעתיד עוד כאלה, או כנראה יהיו עוד כאלה, יצרנו מנגנון החרגה מסוים, אפשר לחשוב על מנגנון החרגה אחר, אולי ברמת חקיקת משנה. קודם כול להגיד שככלל מידע ביומטרי, שוב טביעת האצבע שלי, גם אם היא לא - - - << יור >> היו"ר שמחה רוטמן: << יור >> נחשוב על זה. הייתי נוטה לחשוב דווקא שנתון הייתי מכניס יותר בקלות מאשר אמצעי. אני יודע שאמצעי זה יותר רגיש לכם. << אורח >> נעמה בן צבי: << אורח >> אני רק אומרת שוב שזה אומר שיש פה מאגרים ביומטריים שיסתכלו על החקיקה הזאת, ובניגוד למה שהיה עד עכשיו ב-15 השנים האחרונות יפרשו אותם כמאגרים לא רגישים. << יור >> היו"ר שמחה רוטמן: << יור >> לא לעניין ההגדרה של מזהה. אני מדבר לעניין המידע הרגיש. ההגדרה של מזהה מקובלת. זה ודאי יהיה מידע מוגן בהגנת הפרטיות. לגבי השאלה של הגדרת מידע רגיש, נתון, משהו שכבר נעשה עליו עיבוד, לפי ה-GDPR בעיניי פשוט, כי כבר עכשיו הוא מזהה ייחודי, בלי הפעלת שום אלגוריתם, שום איתור, כל סרטון וידיאו הוא מאגר של מזהים. << אורח >> נעמה בן צבי: << אורח >> אני חייבת להתייחס לנקודה הזאת. אני חושבת שזאת תהיה טעות מקצועית לומר שתבנית היא נתון רגיש ואילו המידע הגולמי הוא המידע הרגיל. התבנית מבחינתנו היא המידע הפחות רגיש, אנחנו גם מתייחסים לזה כך בכל התהליכים שאנחנו עושים מול מעברים כאלה. << יור >> היו"ר שמחה רוטמן: << יור >> מה יותר רגיש? הרי כשלוקחים בדיקת דנ"א, אפשר לבדוק אתרים מסוימים, אפשר לפענח את כל הדנ"א. לפענח את כל הדנ"א זה דבר מסוים, לפענח אתרים מסוימים, זה גם יותר מהר, גם יותר זול. בסופו של דבר פענוח של ארבעה, חמישה, שישה, שבעה אתרים בדנ"א מספק לי מזהה ביומטרי ייחודי, דגימה של מקום אחד לא מספקת לי. << אורח >> נעמה בן צבי: << אורח >> פענוח בדרך מסוימת של דגימת דם נניח תיתן לנו מזהה ביומטרי, זה נקרא "Rapid DNA", ההבדל הוא שכדי לעשות את הפענוח הזה, נדרש די הרבה, מכשור מיוחד. קודם כול, דווקא בנושא של הדנ"א, הנחת המוצא שלנו זה שאנחנו לא מדברים על אוסף של דגימות ביולוגיות בהקשר הביומטרי, אנחנו מדברים על ייצוג ממוחשב, על מעבר של הדנ"א לייצוג הממוחשב. << יור >> היו"ר שמחה רוטמן: << יור >> סרטון וידיאו במידה מסוימת, אני מסתכל עליו יותר כדגימת דנ"א, לפני שהפעלת עליו את האלגוריתם. אחרי שהפעלת עליו את האלגוריתם, הוא כבר ה-Rapid DNA. זה הפשטה, אבל בסופו של דבר אחרת כל סרטון וידיאו שמצלם את המרחב הציבורי, הכי ציבורי שיש, הוא הופך להיות מאגר מידע בעל - - - << אורח >> נעמה בן צבי: << אורח >> ולכן אנחנו חושבים שמה שנכון - - - << אורח >> עמית יוסוב עמיר: << אורח >> - - - תמונות. << יור >> היו"ר שמחה רוטמן: << יור >> זה לא רק תמונות, זה גם צורת הליכה. << אורח >> נעמה בן צבי: << אורח >> לכן לדעתנו זו טעות לעשות את התיקון בהגדרה. וזה נכון לתת את המשקל בהתייחס לגודל. << יור >> היו"ר שמחה רוטמן: << יור >> אני מסכים. << אורח >> נעמה בן צבי: << אורח >> גם אנחנו היינו רוצים למשל שימחקו את הסרטונים האלה, ואולי בתדירות יותר גבוהה, וזה הפתרון. << יור >> היו"ר שמחה רוטמן: << יור >> אני מסכים, ולכן אני חושב שהדרך לבוא ולהגיד שהמזהה הביומטרי, מה שהופך מידע למידע רגיש, הוא נתון, ולגבי האמצעי, שם או מה שאנחנו יודעים לכתוב עכשיו, נכתוב עכשיו, או שלא, אבל לגבי האמצעי, מאחר שאמצעי זה הכול, ומה שאנחנו כותבים היום, אני לא יודע מה יהיה בעתיד, אמצעי הוא הכול, לגבי אמצעי נעשה את ההגדרה לפי כמות. << אורח >> נעמה בן צבי: << אורח >> אני מבינה, אז אני אומרת עוד פעם, ואני גם אשמח לשבת עם אדוני בנפרד - - - << יור >> היו"ר שמחה רוטמן: << יור >> זה צריך עוד עיבוד, אבל הנקודות ברורות. << אורח >> נעמה בן צבי: << אורח >> זה לא יהיה נכון לומר שהנתון הוא המידע הרגיש יותר וצריך להתייחס לרגישות באמצעות פרמטרים אחרים. << יור >> היו"ר שמחה רוטמן: << יור >> נתון הוא רגיש מ-Day one - - - << אורח >> נעמה בן צבי: << אורח >> הרגישות נובעת מהפעלת התהליך הביומטרי. המידע עצמו שחשוב לתהליך הזה, והוא בעל ערך, הוא לא הנתון. << יור >> היו"ר שמחה רוטמן: << יור >> הנתון הוא מה שהפך לי את טביעת האצבע מתמונה למזהה ייחודי. << אורח >> נעמה בן צבי: << אורח >> נכון, לכן אני מציעה לאדוני ולפורום הזה, כאשר מדברים על רגישות, לדבר על התהליך של ההשוואה, ולא על ההגדרה של המידע, כי אז תצא שגיאה תחת ידינו. << יור >> היו"ר שמחה רוטמן: << יור >> תציעי נוסח שעושה את זה, כי כרגע זה לא עושה את זה. << אורח >> נעמה בן צבי: << אורח >> זה מה שאני מציעה. לכן צריך לעבור לאזורים שבו המאגרים האלה מתוארים, כאשר כרגע זה בפרק העיצומים. אני לא יודעת מה כלול - - - << הפסקה >> (הישיבה נפסקה בשעה 11:38 ונתחדשה בשעה 11:41.) << הפסקה >> << אורח >> עמרי רחום טוויג: << אורח >> אני רוצה להגיד שני דברים, ואני חושב שהחשוב ביניהם הוא שוב עניין התאימות. אנחנו מתייחסים ל-GDPR וכולם מפנים להגדרה של מידע ביומטרי ב-GDPR, כשאני מסכים עם אדוני לחלוטין שמתייחס לנתון ולא לאמצעי, אבל אנחנו מתעלמים מעוד דבר, סעיף ה-special categories of personal data, אותו סעיף 9 ב-GDPR, לא מתייחס רק למונח "biometric data", הוא מתייחס ל-"biometric data for the purpose of uniquely identifying", כלומר, הוא מביא בחשבון שימוש בפועל. << יור >> היו"ר שמחה רוטמן: << יור >> את המטרה. << אורח >> עמרי רחום טוויג: << אורח >> כן, את מטרת השימוש בפועל, ואי-אפשר להתעלם מזה. לפטור את ה-GDPR בזה שהוא חקיקה ישנה, סליחה, עם כל הכבוד, זו אמירה, אני חושב, שלא מדויקת. אומנם הנוסח הראשון עלה ב-2012, אבל החוק נחקק רק ב-2016. דבר שני, ה-AI act האירופי שנמצא בחקיקה עכשיו, אותו חוק בינה מלאכותית, שהולך להיות אולי אחד הדברים הכי מחמירים בעולם, מפנה בהגדרת "biometric data" ל-GDPR. זו ההגדרה גם ב-AI act שנדון היום. אי-אפשר לפטור את זה שזה ישן וכבר לא מעודכן. ה-AI act בהחלט מביא בחשבון מידע ביומטרי ואת היכולת לנטר אותו במרחב הציבורי, אי-אפשר להגיד שהוא מתעלם ממנו. ולכן ההגדרה של "biometric data", שמגלמת גם נתון קודם כול ולא אמצעי, ודבר שני, כוללת גם את דרישת השימוש בפועל, for the purpose of identifying, זה ייצור חוסר תאימות אמיתי בין ה-GDPR לישראל וזה ייצור בעיה. << אורח >> ענר רבינוביץ׳: << אורח >> אנחנו מדברים פה על שימוש, על הגבלה למטרה, אז "המשמש לזיהוי חוזר". זה מאוד הולם איך שזה מתואר כרגע בתקנות אבטחת מידע, זה מאוד הולם את הרוח של ה-GDPR, כמו שעמרי אמר, זה מפשט את הדיון, אמצעי, נתון. בסוף השימוש זה מה שמדאיג אותנו, לא זה שיש תמונות או אין תמונות, או אם זה 100,000 תמונות או - - - << יור >> היו"ר שמחה רוטמן: << יור >> מה אתה אומר? שהגדרה של מזהה ביומטרי זה לא יהיה נתון ביומטרי המשמש אמצעי שניתן להפיק אלא רק האמצעי הנתון המשמש? << אורח >> ענר רבינוביץ׳: << אורח >> המשמש. << יור >> היו"ר שמחה רוטמן: << יור >> נתון או באמצעי המשמש. << אורח >> ענר רבינוביץ׳: << אורח >> המשמש לזיהוי חוזר. לא סתם משמש לזיהוי, כי אז כל תמונה נכנסת לכאן, ואני לא חושב שלשים כאן מספר, כמות, זה מה שמשנה. גם ב-GDPR לא הלכו בהגדרות האלה לעניין של Scale, או של ווליום של דאטה. Scale נשמר לסעיפים אחרים, לצורך במינוי DPO, למינוי אי-רפרזנטיטיב. הם לא שם. << יור >> היו"ר שמחה רוטמן: << יור >> עוד עמדות או דעות בנושא הזה? << אורח >> דן אור-חוף: << אורח >> עוד מילה אחת בקונטקסט של ההגדרות בחקיקה הישראלית. אולי דבר אחד שלא הוזכר זה שתקנות אבטחת המידע שהותקנו מכוח חוק הגנת הפרטיות, תקנות שהותקנו ב-2018, הן מגדירות מידע ביומטרי ולא מזהה ביומטרי. קודם כול, נדרש יישור קו בין ההגדרות הללו. וההגדרה הזאת, אולי אפשר לקרוא אותה בכל מיני דרכים, אבל ההגדרה בתקנות הללו, לפחות בהבנה שלי, כן מתייחסת לנתון וגם לעובדה של השימוש לצורכי זיהוי. זאת אומרת, גם המטרה וגם העובדה שזה ניתן למדידה ממוחשבת. וזה אולי מקום למחשבה נוספת איפה אנחנו שמים את הקו. << יור >> היו"ר שמחה רוטמן: << יור >> יש מדינות שבהן יש רגולציה על מאגר תמונות? << אורח >> עמרי רחום טוויג: << אורח >> באופן נפרד מרגולציית הגנת הפרטיות? << יור >> היו"ר שמחה רוטמן: << יור >> שמתייחסים אליו כרגיש, לעצם מאגר התמונות בלי הביומטריה? << אורח >> דן אור-חוף: << אורח >> עוד מילה אחת להשוואה, אדוני. בארצות-הברית יש מספר חוקים שמתייחסים באופן ספציפי למידע ביומטרי, והמוביל שבהם הוא חוק ממדינת אלינוי. הוא אכן חוק די מבוגר, הוא בן 20 שנה בערך, אבל שם בהגדרה הם מחריגים במפורש תמונות. יש שם אמירה מפורשת שאנחנו לא מתקרבים לתמונות, זאת אומרת, לא מתקרבים למידע הגולמי של התמונות כשאנחנו מדברים על מידע ביומטרי. וזה אולי עוד אינדיקטור מסוים. החוק הזה לא השתנה. החוק הזה הוא בסיס להרבה מאוד פסיקה בארצות-הברית והוא לא השתנה. וזאת באמת שאלה עקרונית על מה אנחנו מגנים כאן ובאיזה רמה, בגלל שנכס אסטרטגי לארגון מול הרשות זה אולי משהו מאוד חשוב, אבל לאו דווקא חוק הגנת הפרטיות זו האכסניה הנכונה לדון בזה. יכול להיות שזה אולי בהקשרים אחרים. << אורח >> נעמה בן צבי: << אורח >> כשאני אומרת נכס אסטרטגי, אני מתכוונת שככל שלמאגר תמונות יש ווליום יותר גדול, יש יכולת לעשות בו שימוש לחיפוש מסיבי של בני אדם בקפיצה יחסית פשוטה, ויותר אטרקטיבי לעשות שימוש במאגר בגדלים כאלה. מי שרוצה להציג את היכולת הזאת, ברגע שהוא יישען על מאגר כמה שיותר גדול, יש לזה משקל יותר משמעותי, והנזק יכול להיות יותר גדול. לכן אנחנו חשבנו שקו פרשת המים בסיפור הזה, ואנחנו מכירים בקושי, צריך להתייחס לגודל של המאגר כאן. אבל אם אדוני רוצה שנחזור ונחשוב על זה - - - << יור >> היו"ר שמחה רוטמן: << יור >> כדאי. << אורח >> דן אור-חוף: << אורח >> אני רק אציג ברשותך עוד אנומליה נוספת שאולי היא נקודה למחשבה, כי בסופו של דבר אנחנו עושים הסדרה שמחריגים לחלוטין מאגרים שהם לא למטרות עסקיות, ואם אנחנו קובעים שהאמצעי, זאת אומרת, שתמונות שיש בהן פנים של בני אדם הן אכן מידע רגיש, והוא נכנס גם להגדרה של מזהה ביומטרי, יש מאגרי ענק בידיים פרטיות, שהן למטרות אישיות. ואם באמת האמצעים להפיק מהם זיהויים ביומטריים היום הם זולים מאוד, אנחנו יוצרים מצב שמצד אחד החוק מתייחס אל היבטים עסקיים בצורה קשוחה מאוד, מידע רגיש צריך לאבטח אותו ברמה גבוהה וכו', ומצד שני, היקף עצום של מידע כזה שנמצא בידיים פרטיות למטרות פרטיות, שאין עליו שום הסדרה. << אורח >> נעמה בן צבי: << אורח >> בהיקפים של מאות אלפי רשומות. << יור >> היו"ר שמחה רוטמן: << יור >> כל מצלמה שמצלמת את המרחב הציבורי של תושב תל אביב, שאני מתקין אצלי בבית, אם אני גר בתל אביב. << אורח >> נעמה בן צבי: << אורח >> הפתרון פה הוא מאוד פשוט, צריך לעשות מחיקה איטית יותר משמעותית. << יור >> היו"ר שמחה רוטמן: << יור >> את לא יכולה לעשות עליה בכלל רגולציה, זה לא מאגר, זה למידע אישי. << אורח >> נעמה בן צבי: << אורח >> אני חושבת שזו צריכה להיות התוצאה. << יור >> היו"ר שמחה רוטמן: << יור >> זה יכול להיות רעיון מצוין, אני מאוד אשמח, אבל זה לא קשור לחוק. התושב שגר במגדלי U ושם מצלמה שצופה לרחוב שמתחתיו, ההארד דיסק שלה הוא מאגר מידע שמכיל מידע על מאות אלפי אנשים שעוברים ברחוב. << אורח >> עמית יוסוב עמיר: << אורח >> אנחנו לא ביקשנו כרגע להתחיל רגולציה - - - << אורח >> דן אור-חוף: << אורח >> גם קשה לספור אותם, אז התנאי המספרי הזה הוא פרובלמטי למצלמות כאלה. << אורח >> עמית יוסוב עמיר: << אורח >> התנאי הזה לא חל לענייננו, כי אם הוא אישי, והוא לא למטרות עסק - - - << יור >> היו"ר שמחה רוטמן: << יור >> אתה אומר שזה לא חל, אבל לצורך העניין, ההרצה של האלגוריתם, ולהפך, היכולת בגלל שזה מידע אישי, שמן הסתם אולי גם יאובטח פחות, האירנים יפרצו למצלמה הזאת יותר בקלות. << אורח >> נעמה בן צבי: << אורח >> נקודה רגישה הפריצה היום למצלמות. << דובר >> נעמה מנחמי: << דובר >> וכדי להוסיף, אם ועד הבית שם את המצלמה, זה כן נכנס. << אורח >> נעמה בן צבי: << אורח >> בסדר גמור, אבל יש כנראה גם רצון להשית רגולציה על גורמים שיש להם מטרות עסקיות, ולכן לנכסים האלה יש תשובות אחרות. << יור >> היו"ר שמחה רוטמן: << יור >> אצלי לפחות אין אף פעם רצון להשית רגולציה כרצון. פוטנציאל הנזק לצורך העניין לא קשור לשאלת המחזיק במידע, לא קשור לשאלת - - - << אורח >> נעמה בן צבי: << אורח >> אני לא מסכימה, אדוני. << יור >> היו"ר שמחה רוטמן: << יור >> לא קשור בהכרח. << אורח >> נעמה בן צבי: << אורח >> לא קשור בהכרח, נכון. << יור >> היו"ר שמחה רוטמן: << יור >> לא קשור בהכרח לשאלת המחזיק במידע, הוא לא קשור בהכרח לשאלה האם המידע הוא פרטי או לא פרטי, כהגדרתו, הוא בוודאי לא רגיש או לא רגיש. ופוטנציאל הנזק יכול להיות מאוד מקיף, גם אם המידע הוא ציבורי. << אורח >> נעמה בן צבי: << אורח >> אם אני למשל בתור אדם פרטי אוספת פרטים על צנעת חייו של אדם, כל פרט אחר שאנחנו הגדרנו אותו כאן כמידע רגיש, ואני עושה את זה מכל מיני סיבות, גם החקיקה - - - << יור >> היו"ר שמחה רוטמן: << יור >> נכון, אבל בן אדם פרטי שאוסף מידע - - - << אורח >> גלעד סממה: << אורח >> אדוני, הרי ברור שמדובר כאן בניהול סיכונים. הרי בסופו של דבר אנחנו מבינים שיש במקומות מסוימים סיכונים יותר משמעותיים ומוטיבציות אחרות. אנחנו לא רוצים עכשיו להחיל כאן רגולציה על כל אדם ואדם. << יור >> היו"ר שמחה רוטמן: << יור >> בדיוק. << אורח >> גלעד סממה: << אורח >> הייתה כאן איזה תחושה שאולי רוצים רגולציה על כל אדם פרטי שיש לו מצלמה. << יור >> היו"ר שמחה רוטמן: << יור >> ברור שלא. אבל אני הייתי רוצה בלי שום קשר לשאלת מאגר המידע והגנת הפרטיות שבנושא, שבעניין האסטרטגי של מדינת ישראל – ענר יכול לבוא ולהגיד שהוא היה רוצה, וזה יכול להיות בחוק אחר, זה יכול להיות בחוק הזה ולא בפרק שעוסק במאגרי מידע, או בחוק איסור צילום רשות הרבים ושמירת מידע, אני לא יודע – הסכנות שמצביעים עליהן העוסקים בתחום הביומטרי, והסכנות האסטרטגיות והנזקים והיכולות הם דבר אחד. ושאלת הרגולציה על בעל המכולת ששם מצלמה על המרחב הציבורי למטרת מניעת גניבה ואיתור, אם הוא גר בעיר קטנה, הוא לא יגיע ל-100,000, אבל אם החנות שלו נמצאת במרכז תל אביב, הוא יצטרך למחוק בכל ארבעה ימים, כדי לא להגיע ל-100,000. הפער הזה הוא פער לא נכון. ולכן שאלת השימוש או כוונת השימוש, כפי שאמרו פה, הוא מאוד מאוד משמעותי. והשאלה היא האם אנחנו יכולים להכניס את השימוש או את כוונת השימוש להגדרת המידע הרגיש, בוודאי כאשר אנחנו עוסקים בפלט וידיאו או אודיו. זה אפילו לא עניין של תמונות פנים, זה פלט של וידיאו או אודיו, כי כמו שאמרתי, אפשר לחבר את זה לתנועות גוף, אפשר לעשות תוך ארבעה חודשים התאמה לבן אדם שיש לו מסכה. << אורח >> עמרי רחום טוויג: << אורח >> אני רק אגיד שעניין השימוש כבר קיים לצורך הנתון. הוא לא קיים לצורך האמצעי. וזה הקושי שנוצר. << אורח >> אייל שגיא: << אורח >> יש הרבה מאוד חברות שחייבות להקליט את כל השיחות של שירות הלקוחות, לשמור אותן לפחות שנתיים. לפי זה כל המאגרים האלה, גם אם לא עושים בהם שום דבר - - - << יור >> היו"ר שמחה רוטמן: << יור >> זה ודאי יהיה מידע רגיש מסיבות אחרות, לא בגלל הזיהוי הביומטרי. << אורח >> ראובן אידלמן: << אורח >> הצענו חריג מסוג מסוים בפרק העיצומים לגבי גודל המאגר, ואמרנו שמתחת ל-100,000 לא נראה - - - רגיש לעניין העיצומים. אדוני מכוון לחריג מסוג אחר. אולי נעשה איזה עבודה ונחזור עם הצעה. << יור >> היו"ר שמחה רוטמן: << יור >> תעשו עבודה על זה. עוד משהו בנושא הביומטרי? << אורח >> טל מימרן: << אורח >> רק ראוי לציין שפער בגישה בין ישראל למקומות אחרים ביחס למידע ביומטרי צריך להביא בחשבון את ההבדלים במציאות, למשל חובה שלנו להעניק מידע, למשל ביקורות משנת 2020 גם על ידי מבקר המדינה, גם על ידי הממונה על היישומים הביומטריים ממערך הסייבר על איכות ההגנה על מידע ביומטרי, ודבר שלישי, אנחנו מדברים הרבה על בעלי המכולת וכן הלאה, אני מודאג יותר מהביג-טק, כי אותה מערכת של כללית שדיברתי עליה, מי שמתפעל אותה זה מיקרוסופט. כל ההבחנה הזאת של עולם האתמול בין החזקה של מידע ועיבוד שלו בידי ביג-טק, זה לא אישיו, כי אני יכול להכיל מערכות של בינה מלאכותית שעושות באופן אוטומטי את העיבוד. << יור >> היו"ר שמחה רוטמן: << יור >> אז תחשוב עכשיו איפה האינטרס של החברה. מיקרוסופט, אני לא מכיר את האינטרסים שלה, אבל החברה היותר קטנה, שהאינטרס שלה שהיא נותנת את שירותי הקול-סנטר ושמירת השיחות לאותה חברה שחייבת לשמור את השיחות, ושומרת להם את זה למשך שנתיים, נותנת להם את שירותי הקול-סנטר, האם היא תחשוב להתקרב אפילו עם מקל לניתוח ביומטרי של הדברים האלה או שהיא לא תעשה את זה. אם אתה אומר לה: בשנייה שאת אוגרת את האמצעי, אז היא תגיד: אני כבר בכל מקרה עושה את זה, אני אעשה את זה זיהוי ביומטרי וזה יקל עליי, הם גם יעשו את זה למטרה עסקית לגיטימית, פשוט כדי לוודא שאותו אדם שמתקשר, כל השיחות שלו, גם אם הוא מתקשר מהטלפון של אישתו, גם הן נספרות לטובת ההיסטורי שלו, אבל התוצאה תהיה שכל המאגר הזה יהיה ביומטרי, ואני לא רוצה את זה, כי אז הוא באמת יהפוך להיות בעייתי הרבה-הרבה יותר, אבל אם אני אומר שבשנייה שאגרת את הקולות אתה כבר בעולם הזה, אני אומר להם: תעשו את זה. וככל שהטכנולוגיה הזאת תהיה יותר קלה וזמינה, אני מעורר את הסכנה הזאת יותר, לא פחות. << אורח >> טל מימרן: << אורח >> צריך להיזהר שלא להתנתק מהמציאות, ולהכיר בזה שאם עד היום התרגלתי לזה שכאשר אני מדבר למיקרופון, אני אקבל פרסומת למקום שדיברתי על זה שאני רוצה לנסוע אליו, מחר המיקרופון יוכל לקרוא את המצב הנפשי שלי. << יור >> היו"ר שמחה רוטמן: << יור >> כבר היום. << אורח >> נעמה בן צבי: << אורח >> חוץ מהתמריץ הזה שאדוני הציג עכשיו, גם יש תמריצים לדעת לאבטח את המאגרים האלה כמו שצריך, שחברי הציג את זה. << יור >> היו"ר שמחה רוטמן: << יור >> ניסוח איזון. << אורח >> נעמה בן צבי: << אורח >> השאלה איך אתה מסתכל על זה. << יור >> היו"ר שמחה רוטמן: << יור >> בסדר גמור. את 6 כבר עשינו. נספיק לעשות את הארכת האישיות ונתוני מיקום. << דובר >> נעמה מנחמי: << דובר >> זה יותר מורכב משלוש דקות. << יור >> היו"ר שמחה רוטמן: << יור >> נדבר שנייה על מוצאו של אדם או השתייכותו הלאומית, לדעתי זה יותר פשוט... << אורח >> עמית יוסוב עמיר: << אורח >> אם אפשר את 7. << דובר >> נעמה מנחמי: << דובר >> יש לנו שלוש דקות. << יור >> היו"ר שמחה רוטמן: << יור >> "נתוני מיקום ונתוני תעבורה, כהגדרתם בחוק סדר הדין הפלילי." << אורח >> עמרי רחום טוויג: << אורח >> זה דיון ארוך, אלא אם כן מבטלים. << אורח >> עמית יוסוב עמיר: << אורח >> יש לנו הצעה לצמצום. << דובר >> נעמה מנחמי: << דובר >> בסוף שתי הפסקאות לפני (8), יש נוסח חלופי מוצע, "נתוני תעבורה, כהגדרתם בחוק סדר הדין הפלילי (סמכויות אכיפה – נתוני תקשורת), התשס"ח–2007, לגבי אדם ונתוני מיקום, למעט נתון יחיד לעניין נושא מידע שאין בו כדי ללמד על מידע לפי פרטים (1) עד (6) או (8) עד (9)". << אורח >> עמרי רחום טוויג: << אורח >> איך זה מצמצם? נתוני מיקום זה הרחבה מאוד מאוד גדולה, ונתוני מיקום שלא מעידים על שום מידע רגיש אחר, מה הופך אותם למידע רגיש? מה רמת האבסטרקציה של נתוני מיקום? מדינת ישראל? עיר? מחוז? נתון מיקום מדויק? << יור >> היו"ר שמחה רוטמן: << יור >> לא. נתוני מיקום ונתוני תעבורה, מדובר על כהגדרתם בחוק סדר הדין הפלילי. << אורח >> עמרי רחום טוויג: << אורח >> לא. הוציאו את נתוני מיקום החוצה, וזאת הרחבה עצומה. וה-GDPR לא כולל אגב נתוני מיקום. << יור >> היו"ר שמחה רוטמן: << יור >> איפה ה-GDPR? << אורח >> עמרי רחום טוויג: << אורח >> הוא לא כולל. << יור >> היו"ר שמחה רוטמן: << יור >> אין בכלל? << אורח >> עמרי רחום טוויג: << אורח >> אין בכלל. אם נתון מיקום מסוים מעיד על מידע בעל רגישות מיוחדת אחר ברשימה לצורך העניין - - - << אורח >> ניר גרסון: << אורח >> ההגדרה היא פונקציונלית. לפונקציות שאנחנו מגדירים עכשיו, ה-GDPR יחייב לעשות תסקיר, אפשר יהיה להטיל בגינו עיצומים בסכומים מאוד גבוהים. הוא מתייחס למשל לסיכון. החובה לעשות תסקיר למשל מתייחס לסיכון שנוצר לחירויות ולזכויות של אדם. נתוני מיקום של אדם יכולים - - - << אורח >> עמרי רחום טוויג: << אורח >> קודם כול, תהיה חובת תסקיר, אבל שוב נתוני מיקום - - - << אורח >> ניר גרסון: << אורח >> זה בהשוואה להשפעה שאנחנו עושים. << אורח >> עמרי רחום טוויג: << אורח >> ככל שיש בהם כדי להעיד. << אורח >> ראובן אידלמן: << אורח >> יש גוף באיחוד האירופי שתפקידו לפרש את ה-GDPR, הוא נקרא EDPB – European Data Protection Board – חשוב להגיד שבמסמכי פרשנות של ה-GDPR הוא מתייחס במסמכים, בחוות דעת גם מ-2020 לנתוני מיקום כמידע רגיש מאוד. נאמר שם בהקשר למכוניות מקושרות ודברים כאלה. בית המשפט העליון בישראל, בשורה של פסקי דין מהשנים האחרונות, כולל בהרכב מורחב ביחס לאיכונים שנעשו בתקופת הקורונה, מדבר על נתוני מיקום כמידע רגיש מאוד, שאפשר ללמוד ממנו הרבה מאוד על אדם, על קשריו החברתיים, מקומות שהוא נמצא בהם. צריך לזכור שנתוני מיקום זה מרפאה שאדם נמצא בה, זה בית תפילה שאדם נמצא בו. << יור >> היו"ר שמחה רוטמן: << יור >> אני לא רואה סיבה שנתוני מיקום ונתוני תעבורה לא יהיו. << קריאה >> קריאות: << קריאה >> - - - << אורח >> עמרי רחום טוויג: << אורח >> - - - על נתונים אחרים. << אורח >> ראובן אידלמן: << אורח >> החרגנו. יש חריג שהצענו, שלמעט נתון יחיד. זה שאדם היה באיזה מקום פעם אחת - - - << יור >> היו"ר שמחה רוטמן: << יור >> כאשר אנחנו מדברים על נתוני מיקום, כהגדרתם בחוק סדר הדין הפלילי (סמכויות אכיפה – נתוני תקשורת), זה רדיוס מאוד מצומצם. להגיד שאני אתמול הייתי בתל אביב והיום בירושלים, זה שני נתוני מיקום שאין בהם כדי ללמד יותר מדי. הם לא נתוני מיקום כהגדרתם בחוק סדר הדין הפלילי (סמכויות אכיפה – נתוני תקשורת), כי הם לא אומרים באיזה טווח של מטרים ממגדל התקשורת הייתי. הם נתוני מיקום באופן כללי. זה אפילו האמירה שאני היום ואתמול הייתי בישראל, ברמה הכי כללית שיש. << אורח >> ראובן אידלמן: << אורח >> גם כשמעסיק מחייב עובד להתקין אפליקציה שעוקבת אחריו, וזה נושא שעסקנו בו לא מעט, והאפליקציה עוקבת אחריו לכל מקום שהוא הולך, ויש מאגר כזה אצל המעסיק, המאגר הזה הוא מידע רגיש. << יור >> היו"ר שמחה רוטמן: << יור >> אני מסכים איתך. << אורח >> ראובן אידלמן: << אורח >> לכן הצענו את ההגדרה של - - - << אורח >> אייל שגיא: << אורח >> בשעון נוכחות הוא בא למשרדו, יש לי היסטוריה של כל החודש. הגיע ב-09:00 לעבודה, הלך ב-18:00, זה לא נתון יחיד - - - << יור >> היו"ר שמחה רוטמן: << יור >> א', מטריד אותי נושא הנתון היחיד ו-ב', רמת הרזולוציה של המיקום, כי לכאורה להגיד שאני נמצא בישראל, זה גם נתון מיקום. נתוני מיקום שאין בהם כדי ללמד על מידע לפי פרטים וכו', זה נתוני מיקום, בין אם זה אחד, בין אם זה שניים, בין אם זה עשרה. להגיד נתון יחיד, אתה אומר ששניים, למרות שאין בהם ללמד שום דבר עליי, בוודאי ברזולוציה הכי גבוהה שיש - - - << אורח >> עמית יוסוב עמיר: << אורח >> אני חושב שהכוונה, ואולי אפשר לחדד את זה בנוסח – הכוונה פה היא להבדיל בין נתון מיקום בודד, לא רציף, לבין העובדה שיש אוסף של נתוני מיקום. אוסף נתוני המיקום הוא הרגיש. ההפניה לחוק נתוני תקשורת הייתה טעות, כי בסוף היא מדברת על שהות בזק, לצורך העניין אפילו אפליקציות למיניהן שאוספות עלינו נתוני מיקום רציפים, לא היו נכללים בהגדרה, כי זאת לא הגדרת - - - << יור >> היו"ר שמחה רוטמן: << יור >> אתה צודק. אני מסכים איתך שהאפליקציה של גוגל, שמספרת לי בדיוק מפחיד איפה הייתי בכל דקה, היא מידע רגיש, אין ספק. היא יכולה והיא מלמדת עליי המון-המון דברים שנמצאים בסעיף (1) עד (8), לא כולל (7). כולל (7), אבל (7) זה הפניה עצמית. אין ספק. בלי שום קשר לשאלה אם הגדרה היא נתוני מיקום כהגדרתם בחוק. אני מסכים. לעומת זאת, נתוני מיקום בהגדרה רחבה או ברמת הרזולוציה שאני נמצא בירושלים, אני נמצא בישראל, גם זה יכול לגלות עליי מידע מאוד רגיש, ולכן השאלה היא לא רק הרזולוציה ולא רק הרצף, אלא השאלה בסופו של דבר האם נתוני המיקום, יש בהם כדי ללמד על מידע לפי פרטים מ-(1) עד (6). אם אמרתי לבת הזוג שלי שאני בכנסת, והיא מגלה שבמקום להיות בכנסת אני בתל אביב, זה יכול לגלות עליי המון-המון מידע רגיש – על היחס ביני לבין אישתי, על מה יש לי בתל אביב. יכול לגלות עליי המון גם נתון יחיד וגם ברמת רזולוציה של עיר. לכן השאלה היא לא האם נתון יחיד או מספר נתונים. נתוני מיקום שאין בהם כדי ללמד על מידע לפי פרטים (1) עד (6) או (8) עד (9) זה האירוע. << אורח >> עמית יוסוב עמיר: << אורח >> העניין הוא שצריך להעביר איפשהו את הגבולות. בחדר הזה הוועדה יכולה לאשר שנתוני מיקום רציפים הם רגישים. << יור >> היו"ר שמחה רוטמן: << יור >> תלוי בהקשר. מאגר מידע של נוכחות הח"כים שנמצא פה - - - << אורח >> עמית יוסוב עמיר: << אורח >> הם לא רציפים. << יור >> היו"ר שמחה רוטמן: << יור >> הם רציפים. סליחה, יש פה לוח בכניסה. מילא חברי כנסת, אין פרטיות בכלל, כבר מזמן ויתרנו, גם על עובדי הכנסת. יש עובדי כנסת שנמצאים שם, היועצת המשפטית של הכנסת. אני יכול לדעת מתי היא נכנסה לכנסת, מתי יצאה מהכנסת. האם זה מידע רגיש? יכול להיות. האם ברמת רזולוציה? להגיד שהיועצת המשפטית נמצאת בכנסת, להערכתי זה לא מידע רגיש בדרך כלל, אין בו כדי ללמד על פריטים (1) עד (6) או (8), להגיד לך באיזה חדר בדיוק היא בכנסת, זה כבר משהו אחר, אבל ההגדרה של נתוני מיקום מכסה את הכול, ולכן זה תלוי הקשר. ההגדרה מהותית היא טובה, וצריך לבוא ולהתייחס אליה, לנתוני מיקום, למעט נתונים שאין בהם כדי ללמד על מידע לפי פרטים (1) עד (6) או (8) עד (9). << אורח >> עמית יוסוב עמיר: << אורח >> אני רק מנסה שוב פעם להגיד שכאשר יש לי מכשיר טכנולוגי שעוקב אחריי באופן רציף, והיום זה לא משהו תיאורטי, אלא כל הזמן יש מכשירים טכנולוגיים שעוקבים - - - << יור >> היו"ר שמחה רוטמן: << יור >> אז הוא ייכנס לשם, כי מה שעוקב אחריי באופן רציף כמעט בהגדרה יגלה על פריטים (1) עד (6) אצלי. << אורח >> עמרי רחום טוויג: << אורח >> ואם אפשר יהיה להראות שלא, אז לא. << יור >> היו"ר שמחה רוטמן: << יור >> נכון, ואם אפשר יהיה להראות שלא, אז לא. << אורח >> לירון מאוטנר לוגסי: << אורח >> לא עדיף במסגרת הוודאות להגיד לפחות על זה שמשהו באופן רציף, בלי הצורך להיכנס עוד פעם למבחן האם זה כן מעיד או לא מעיד, כדי לפשט את הדברים ולא כל הזמן להיכנס לדיון הזה? << יור >> היו"ר שמחה רוטמן: << יור >> אני שואל אותך שוב, האם יש לי עילה עכשיו לתביעה נגד כנסת ישראל שמספרת באופן רציף שהמיקום שלי הוא פה בכנסת? << אורח >> עמית יוסוב עמיר: << אורח >> זה לא קשור לעילת תביעה. פה ההנחה שיש הסמכה בדין או הסכמה מכללה. << יור >> היו"ר שמחה רוטמן: << יור >> המידע הזה הוא רגיש? << אורח >> עמית יוסוב עמיר: << אורח >> עקרונית, לצורך העניין, אם אני עכשיו עובד במקום עבודה שלא נוהג לפרסם את הדברים האלה, ולא הסכמתי לזה, ופתאום עכשיו מפרסמים באופן רציף באיזה ממתקני המשרד אני נמצא כל יום, יכול להיות שכן, המידע רגיש. << יור >> היו"ר שמחה רוטמן: << יור >> המילים "יכול להיות" הן מופלאות. אני מאוד אוהב את המילים "יכול להיות". יכול להיות גם שלא? << אורח >> עמית יוסוב עמיר: << אורח >> לא כיוונתי לזה. יש הבדל בין העובדה שנתון מיקום - - - לבין אמצעי שכל הזמן עוקב אחריי. << יור >> היו"ר שמחה רוטמן: << יור >> אני מתקשה לחשוב על אמצעי שכל הזמן עוקב אחריי, שהנתונים שלו לא ילמדו על פרטים (1) עד (6), אבל אם יצליחו לעשות את זה, לצורך העניין ייצרו ברכיב שלהם שהם עוקבים אחריך באופן רציף רק בשעות העבודה, ואז העובדה שאני שוהה במקום העבודה בשעת העבודה איננה מידע רגיש. ולכן צריך פה לא לייצר אב טיפוס בפני עצמו, אב נזיקין בפני עצמו, אלא בדומה להרגלי הצריכה. << אורח >> ראובן אידלמן: << אורח >> ההצעה של אדוני להוריד את הנתון היחיד, ושיהיה למעט מידע שלא מעיד - - - << יור >> היו"ר שמחה רוטמן: << יור >> נתוני תעבורה זה יותר מזהה ייחודי, כי הוא בודק למי התקשרתי, זה סוד שיחו של אדם, זה מזהה מכשיר - - - << אורח >> עמרי רחום טוויג: << אורח >> - - - חוק נתוני תקשורת. << יור >> היו"ר שמחה רוטמן: << יור >> - - - חוק נתוני תקשורת, זה בסדר, עם זה אין לי בעיה. << אורח >> ראובן אידלמן: << אורח >> ניתן תשובה סופית בדיון הבא לעניין הזה. << יור >> היו"ר שמחה רוטמן: << יור >> הספקנו בסוף עם קצת חריגה גם את פרט (7), וזה מצוין. דילגנו על פרט (5), הערכת אישיות. נפתח בפעם הבאה בהערכת אישיות. תודה רבה לכולם. ישיבה זו נעולה. << סיום >> הישיבה ננעלה בשעה 12:08. << סיום >>