מוצג כאן תרגום של מאמר בנושא פיטורין על ידי אלגוריתם כמנגנון אוטומטי שנכתב במקורו על ידי ד"ר פיליפה קולינס ופורסם בבלוג UK Labour Law Blog.
התרגום: פרופ' הדרה בר-מור.
אני מודה לעו"ד מעיין נייזנה על הערותיה המועילות.
החלטות פיטורים אוטומטיות, הגנה על נתונים וחוק הפיטורים שלא כדין – ד"ר פיליפה קולינס[1]
תאריך פרסום מקורי: 19 אוקטובר, 2021
הקדמה
בקיץ 2021, האתר בלומברג פרסם סדרה מרשימה של סיפורי עובדים ש"פוטרו על ידי מכונה". סטיבן נורמנדין עבד במשך מספר שנים עבור אמזון Flex, בארצות הברית, במסגרת קבוצת "נהגי חוזים" המספקים שירותי משלוח בו-ביום של מצרכים וחבילות. כמו עובדים אחרים בכוח העבודה המשמעותי הזה של אמזון, עבודתו של סטיבן הייתה במעקב המערכת של איסוף נתונים בזמן אמת ונחשפה לניתוח אלגוריתמי. דירוג הביצועים של סטיבן צנח לאחר סדרה של תקריות מצערות שהקשו על עבודתו: שכונות מגורים נעולות ובלתי נגישות ולוקרים חסומים שלא ניתן היה לבצע בהם את משימת המשלוח, נמענים שלא הגיבו לנקישות על הדלת ותגובות לא מועילות מצד החברה המעסיקה. זמן קצר לאחר מכן, הוא קיבל דוא"ל לפיו החוזה שלו הסתיים. סטיבן החליט לערער על ההחלטה אך קיבל סדרה של מיילים, כל אחד חתום על ידי אדם אחר, שלא שינה את מצבו. במייל האחרון שקיבל סטיבן צוין כי הקשיים שציטט כבר נלקחו בחשבון. כך יצא שההתקשרות איתו הופסקה על ידי מנגנון עיבוד אוטומאטי מונחה אלגוריתם, למרות שהוא מעולם לא הצליח לתקשר פרונטלית עם נציג של החברה.
באיחוד האירופי, העובדים השתמשו בכלים שמספק חוק הגנת הנתונים[2] כדי לקרוא תגר על שיטות הניהול מונחות הנתונים הללו. נהגי Uber, למשל, הגישו תביעות כדי לקבל גישה לנתונים שלהם ולפסול פרקטיקות משמעת המתבררות, מנקודת מבטו של הפרט, כנשלטות לחלוטין על ידי אלגוריתם. אולה OLA, אפליקציה לנייד, קיבלה הוראה להסביר לנהגים כיצד מחושבים ניכויים משכרם על ידי האלגוריתם שלה. זכות חיונית להגנה על נתונים בנסיבות אלה נובעת מסעיף 22 לתקנות הכלליות להגנה על נתוניםGeneral Data Protection Regulation [3] (GDPR), המטילות? מגבלות כבדות על בקרי נתונים ([4](data controllers המוסמכים לקבל החלטות המבוססות אך ורק על עיבוד אוטומטי.
עם זאת, סעיף 22 משך את תשומת לבה של ממשלת בריטניה, שכן היא מחפשת "כיוון חדש" למשטר הגנת המידע בעידן שלאחר הברקזיט. מסמך התייעצות ממשלתי שפורסם בספטמבר 2021 (להלן: מסמך ההתייעצות הממשלתי) מעלה ספקות באשר לעתידו של סעיף 22. במסמך זה, הממשלה מברכת על השימוש וההפעלה של סעיף 22, אך היא גם מבקשת תגובות להצעות שהועלו בתחילת השנה על ידי כוח המשימה לחדשנות, צמיחה ורפורמות רגולטוריות (TIGRR). [5]TIGRR (להלן: דוח כוח המשימה ה-TIGRR) גוף זה המליץ בתוקף לבטל את הזכות שלא להיות כפוף לקבלת החלטות אוטומטית (ראו הצעה 7.2). עבור פרשנים בתחום דיני העבודה, האפשרות שיבטלו את סעיף 22 או יבצעו בו רפורמה מהותית העלתה את הסיכון של החלטות פיטורים אוטומטיות. בהצעות TIGRR, החלטה לפטר עובד תצטרך להתאים למשטר הגנת הנתונים שיוותר לאחר הרפורמה, אך לא תישארנה זכויות ספציפיות לערעור על החלטה או להתערבות אנושית – ירידה משמעותית ברמת ההגנה העומדת לרשות הנבדקים.
בבלוג זה, אני חוקרת את הצפוי במצבים של פערי הגנה אלו, כאשר הכלים המסורתיים של דיני העבודה, כגון דיני פיטורים שלא כדין, יקלעו למצבים של לקונה ויסדירו את פרקטיקות הניהול המתקדמות האלה. אני טוענת שעל רקע הדרישות ההחלטיות להגינות ביחסי העבודה, הזכות שלא להיות מפוטר שלא כדין תהפוך פיטורים על ידי אלגוריתם כמנגנון אוטומטי לבלתי חוקיים. אכן, חובת בחינת נסיבות הפיטורין והזכות לקיומו של ערעור ללא משוא פנים נגד החלטת הפיטורין מחייבים אינטראקציה אנושית שמשמעותה: קיומה של החלטה אוטומטית אך הוגנת נראית בלתי אפשרית להגשמה. למרות זאת, התרחשותם של פיטורים מונחי נתונים בתדירות גבוהה ביותר מפנה את תשומת הלב לפער החמור ביישומן של זכויות תעסוקה מסוימות. בעוד שהזכות שלא להיות מפוטר שלא כדין היא דרך הולמת להגן על עובדים מפני החלטות פיטורין אוטומטיות לא צודקות, לא סביר שהיא תהיה זמינה לעובדים החשופים לתהליכים משמעתיים אלה.
פיטורים אוטומטיים והגנה על נתונים: מה אנחנו עלולים להפסיד?
סעיף 22 של GDPR קובע כי למועסקים יש זכות שלא להיות כפופים להחלטה "המבוססת אך ורק על עיבוד נתונים אוטומטי, כולל יצירת פרופילים, ויש לה השלכות משפטיות לגביהם." ניתוח ביצועיו של עובד בעבודה מוזכר במפורש בסעיף 4(4) GDPR כדוגמה ל'יצירת פרופיל' ולסיום העסקה בעלי השפעות משפטיות על נושא הנתונים/העובד[6]. כפי שהוכיחה ההחלטה של בית המשפט בהולנד[7], כל אינטראקציה אנושית במסגרת תהליך קבלת ההחלטות, כגון חקירת Uber בנוגע לפעילויות ההונאה שעשויות להיות מדווחות על ידי התוכנה שלה, תמנע הסתמכות על סעיף 22. רק הליכי משמעת או ניהול אוטומטיים לחלוטין יכללו בסעיף 22.
הנחיית משרד הממונה על המידע (ICO)[8] מסכמת מתי היא מתירה קבלת החלטות אוטומטית (ADM) ואת החובות הנלוות המוטלות על בקר הנתונים.[9]
הנחיה זו מתבססת על ה-GDPR (כיום ה-GDPR הבריטי),המכיל את עיקר הזכויות והחובות, ועל חוק הגנת הנתונים של בריטניה 2018 (DPA), המוסיף פרטים בתחומים ספציפיים. מנקודת המבט של נושא הנתונים/העובד, החוק והתקנון הללו כוללים מספר זכויות שימושיות ביחס למנגנון קבלת ההחלטות האוטומטי – ADM(automated decision-making):
[1] אם מגישים בקשה לגשת לנתונים, בקר הנתונים חייב ליידע את נושא נתונים/העובד לגבי קיומה של קבלת החלטות אוטומטית ולספק 'מידע משמעותי' אודות התהליך, כמו גם על המשמעות וההשלכות עבור נושא הנתונים/העובד של עיבוד המידע והעברתו (ראה GDPR, Art.15(1)(h)).
[2] על פי סעיף 22 ל-GDPR וסעיף 14 DPA, ישנן מטרות מוגבלות המתירות קבלת החלטות באופן אוטומטי: בין אם מאחר והסכמתו של נושא הנתונים/העובד נחוצה לשם חתימה על הסכם בין הצדדים והוא נתן הסכמה מפורשת, ובין אם ההחלטה מאושרת על פי חוק. סעיף 22 ל-GDPR מעניק את הזכות שלא להיות כפוף למנגנון קבלת ההחלטות האוטומטי- ADM מחוץ למטרות אלה.
[3] סעיף 14 ל- DPA קובע דרישות ספציפיות שבהן העיבוד "מאושר על פי חוק", כגון החלטה לסיים חוזה העסקה המאושר על פי הדין והוראה סטטוטורית. במקרים אלה, על בקרי הנתונים:
א. להודיע לנבדק בהקדם אודות קבלת החלטות אוטומטית;
ב. לאפשר לנבדק לבקש לשקול מחדש את ההחלטה או שבקר הנתונים יקבל החלטה שאינה מבוססת לחלוטין על עיבוד אוטומטי;
ג. לשקול כל בקשה שהועלתה, כולל ראיות שסופקו על ידי הנבדק, והודיע לנושא הנתונים/לעובד על התוצאה ועל הצעדים הננקטים כדי להיענות לבקשתם.
קיימות זכויות נוספות המוחזקות על-ידי נושאי נתונים החורגות מדיון עם בקר הנתונים. אם הנבדק סבור שסעיף 22 GDPR ו/או סעיף 14 DPA לא נענו, הם עשויים להגיש תלונה ל- [10]ICO (נציבות המידע). ה- ICO מוסמך לחקור תלונות ולהוציא הודעת אכיפה המפרטת צעדים שעל בקר הנתונים לנקוט או להימנע מהם. הודעה זו יכולה להיות מגובה בהודעת קנס על אי ציות (ראה DPA, סעיפים 149 ו- 155). בית המשפט העליון או המחוזי יכולים גם הם להוציא צווי ציות, עם מטרה דומה להודעות אכיפה. על פי סעיף 82 ל-GDPR, לאדם יש זכות לפיצוי בגין נזקים ממוניים (כספיים) ואף לא ממוניים שנגרמו כתוצאה מהפרת ההגנה על נתונים. ניתן לדרוש פיצוי זה ישירות מבקר הנתונים או באמצעות תביעה בבית המשפט העליון או בבית המשפט המחוזי. חשוב לציין כי בהקשר להליך פיטורים שלא כדין, סעיף 168 של חוק הגנת נתונים DPA)) כולל "מצוקה" ולחץ נפשי בתוך הגדרת נזק שאינו ממוני.
עם זאת, מנקודת מבט של דיני עבודה, התמונה מורכבת. מגוון התרופות לאחר פיטורין באמצעות מנגנון אוטומטי הוא נרחב, במיוחד אם לנציבות המידע ICO יש את המשאבים הדרושים כדי לפתוח בחקירה במהירות. עם זאת, מתעוררת השאלה אם אמצעי הגנה אלה עבור עובד/נושא נתונים הם נאותים, בהתחשב בהשפעה המשמעותית של הפיטורים על מצבו הכלכלי וחייו של המפוטר/מופסק העבודה. במיוחד בנושאי משמעת, שומה על העובדים להבין מראש את הציפיות מהם על מנת שיוכלו לעמוד בהן. אם תהליכים אלה הם אוטומטיים לחלוטין, ה- GDPR מטיל חובה על בקר הנתונים ליידע את נושא נתונים על קיומו של הליך אוטומטי מונחה אלגוריתם לקבלת החלטות ADM כאשר מתקבלים נתונים אישיים אודותיו. מידע זה עשוי להינתן בתחילת יחסי עבודה, בצירוף למידע רב אודות הארגון. מידע זה עשוי להיות כלול ב"מדיניות ההגנה על נתונים" של הארגון שעובדים רבים לעולם לא קוראים. אם נושא הנתונים מתחיל לחשוד בשלב מאוחר כי מתרחש בענינו הליך קבלת החלטות אוטומטי, הוא חייב להגיש בקשת גישה לנושא לפי סעיף 15 כדי לחפש מידע. עם זאת, כפי שטוענים ליליאן אדוארדס ומייקל וייל[11], זכות זו מציבה נטל עיקרי ומורכב על משתמשים הרוצים לערער על החלטות גרועות. לשיטתם:
"אפילו בקשות גישה רגילות דורשות כמות עצומה של זמן והתמדה, ולמעשה, מופעלות בעיקר ביעילות רק על ידי עיתונאים ואנשי פנים בחברה שיודעים כיצד החברה מארגנת את מערכות עיבוד הנתונים שלה."
ניתן לטעון כי משטר הגנת הנתונים יהיה יעיל רק עבור עובדים המתמצאים בטכנולוגיה שמבינים את זכויותיהם המשפטיות ואת מערכות הנתונים שמופעלות על ידי המעסיק שלהם. עם זאת, דו"ח TIGRR מתמקד בשני היבטים מרכזיים של ההגנה הזמינה כיום לנושאי נתונים: (1) "הזכות לבחינה אנושית" ו- (2) הנסיבות שבהן ניתן לעשות שימוש בהליך קבלת החלטות אוטומטי – ADM. ההמלצה העיקרית של כוח המשימה היא שיש להסיר את "הזכות לבדיקה אנושית", הכלול בסעיפים 14(4) לחוק הגנת התונים DPA וסעיף 22(3) לרגולציה GDPR. אם הסרה מלאה היא קיצונית מדי, ניתן להחליף אותה, לשיטתם,בהסבר בסיסי על התהליך שמבצע בקר הנתונים. על פי כוח המשימה, ההתמקדות צריכה להיות במקום זאת בשאלה אם הליך קבלת ההחלטות האוטומטי – ADM עומד ב'מבחן אינטרס לגיטימי או ציבורי '. מסמך ההתייעצות הממשלתי מבהיר כי עיקרון החוקיות הכללי ימשיך לחול על עיבוד הנתונים האוטומטי, אולם ההגבלות על המטרות שלשמן ניתן להשתמש בהליך קבלת ההחלטות האוטומטי – ADM (שהוזכרו בסעיף המשנה [2] לעיל) תצומצמנה באופן דרמטי. תחת המשטר המוצע של דוח TIGRR, המטרות שבהן ניתן יהיה להשתמש בהליך קבלת ההחלטות האוטומטי – ADM תהיינה רחבות יותר. לדוגמה, מעסיק יוכל להסתמך על "האינטרסים הלגיטימיים" שלו כדי להצדיק עיבוד נתונים אוטומטי. הבסיס המשפטי הרלוונטי, סעיף 6(1)(ו) GDPR, מסתמך על שלושה שלבים מרכזיים:
- מבחן המטרה: האם בקר הנתונים/המעסיק פועל בהתאם לאינטרס לגיטימי בעיבוד הנתונים? ניתן לכלול כאן מגוון אינטרסים מסחריים, כולל ניהול יציב של העסק על ידי הפעלת פרקטיקות משמעת יעילות.
- מבחן הצורך: האם העיבוד הוא דרך ממוקדת ומידתית להשגת המטרה?
- מבחן האיזון: האם האינטרסים, זכויות היסוד או החירויות של הנבדק גוברים על האינטרס הלגיטימי?
הן מבחן הצורך והן מבחן האיזון אמורים לספק למעסיקים פסק זמן לפני שימוש בהליך עיבוד אוטומטי. בהתאם למבחן הצורך, ניתן להגדיר טכניקות ניהול מסורתיות עם התערבות אנושית כדרך פחות מסוכנת, במונחים של הגנה על נתונים והשגת תוצאות הוגנות, של אכיפת משמעת על עובדים. על פי מבחן האיזון, את האינטרס של המעסיק בניהול תקין של העסק שלו יש לאזן כנגד זכותו של העובד שלא להיות מפוטר שלא כדין, ולצד זכויות אחרות כגון הזכות לכבד את חייו הפרטיים והמשפחתיים של העובד אשר עלולים להיות מושפעים מפיטורים. קשה לחזות כיצד הרשות להגנת נתונים כמו ה-ICO תשקול את השאלות הללו של צורך ואיזון. אם מעסיק/בקר נתונים יוכל לשכנע את הרשות המפקחת שהאינטרסים הלגיטימיים שלהם צריכים לגבור, התיקונים המוצעים יעניקו למעסיקים חופש גדול יותר לעסוק בפרקטיקות פיטורים אוטומטיות וללא שמירה על הזכות לפיקוח אנושי.
פיטורים על ידי מנגנון אוטומטי מוסדרים באמצעות חוק הפיטורים שלא כדין האנגלי
סעיף 94 לחוק יחסי עבודה 1996[12] (ERA 1996) מעניק לעובדים את הזכות שלא להיות מפוטרים באופן "לא הוגן" (unfair). לאחר שנקבעה זכאותו של אדם לתביעה (עוד בנושא זה בהמשך), הערכת ההגינות מורכבת מכך שבית הדין לעבודה מזהה את סיבת הפיטורים ולאחר מכן בודק אם המעסיק פעל באופן סביר בפיטורים מסיבה זו. בשני שלבים אלה, ישנן נקודות שבהן דרישות של הגינות מהותית או פרוצדורלית יציגו אתגר רציני לקביעת חוקיותן של החלטות פיטורים אוטומטיות. דרישות אלה עשויות לנבוע מהפסיקה המפרשת את השאלה אם מעסיק "פעל באופן סביר" בפיטורי עובד או בהתאם לקוד הנוהג של ACAS[13], אשר בתי הדין לעבודה יכולים לשקול באמצעות ראיות בכל הליכי פיטורים מסיבות של התנהגות בלתי הולמת או ביצועים ירודים.
א. זיהוי הסיבה והבהרתה
לפי סעיף 98 לחוק יחסי עבודה Employment Relations Act 1996, על המעסיק להציג בבית הדין לעבודה את הסיבה העיקרית לפיטורים. כאן, על המעסיק להצביע על "סיבה הוגנת" לפיטורים, כגון התנהלותו או כשירותו של העובד, ולהימנע מפיטורין מ"סיבות לא הוגנות באופן אוטומטי" המפורטות בחוק. בהתחשב בכך שאלגוריתמים עשויים לאסוף ולעבד כל מספר של נקודות ונתונים כדי להגיע להמלצה שיש לסיים יחסי עבודה, הצורך לזהות סיבה אחת, עיקרית לפיטורים, עשוי להוות אתגר. חלק מהנתונים שבהם נעשה שימוש עלולים להתייחס לביצועי העובד, כגון מדדים העוקבים אחר הזמן שנדרש לו לביצוע משימות מוקצות, בעוד שנתונים אחרים עשויים להיות על הגבול בין התנהגות לביצועים. נטייתו של אדם לסרב לקבל ולבצע משימות מסוימות, למשל, יכולה להיחשב כסוגיה של ביצועים (האם הוא מסוגל לבצע את המשימות הדרושות לעבודתו?) או סוגיה של התנהגות (האם הוא מתנגד להוראה סבירה של ההנהלה?). עם זאת, נתונים נוספים יכולים להתייחס לאופן שבו מתבצעת העבודה. דירוגי לקוחות מופיעים באופן קבוע ברשימת הנתונים המשמשים מעסיקים. בעוד מספר דירוגים נמוך עלול לנבוע מבעיות ביצועים אמיתיות, אחרים עשויים להיות קשורים לנסיבות שלא בשליטתו של העובד. דירוגי לקוחות עשויים להיות מושפעים גם מהטיות מודעות או לא מודעות, גורם שעשוי להטיל ספק בערכם במסגרת הליך פיטורים הוגן באופן כללי יותר. הדרישה לייצר סיבה עיקרית לפיטורים עלולה לגרום למעשה לכך שבתי הדין לעבודה יבחנו/יחקרו את האלגוריתם עצמו, את המשקל שניתן לכל ערכת נתונים וכיצד מגדירים אלה את המפה לסיבות המותרות לפיטורים כגון ביצועים ירודים (בתחומי כישוריו של העובד) או התנהגות בלתי הולמת.
מעסיק המודע לדרישה זו של חוק הפיטורים שלא כדין עשוי להיות מסוגל לתכנת אלגוריתם הנשען על נתונים המתייחסים בבירור לסיבה הוגנת. עם זאת, במקרים מסוימים ייתכן שהמעסיק לא תכנת את האלגוריתם המיושם, ולכן לא יוכל לפרט את ניתוח הנתונים שהתרחש ולא יוכל להדגים לבית הדין כיצד ההמלצה לפיטוריו התבססה על התנהלותו או יכולתו של העובד. כמו כן, תהליך קבלת ההחלטות האוטומטי עשוי גם להיות מתוכנן לשם ייעול ניצול הזמן של העובד, עם תוצאות ששופט בית הדין לעבודה יתקשה לבדוק ולהבין. לחלופין, מעסיק עשוי שלא לחשוף את התהליך שבו התקבלה ההחלטה, כפי שאירע לאחרונה בבית הדין לעבודה בבולוניה בתביעה שהוגשה נגד Deliveroo Italia[14]. במקרים אלה, המעסיק עשוי לגלות כי הוא נכשל במשוכה הראשונה: להראות לבית הדין לעבודה שהחלטתו לפטר התבססה על סיבה הוגנת. ממצא של חוסר הוגנות יבוא בעקבותיו. אם מעסיק יכול לבודד סיבה עיקרית לפיטורים, קיימת חובה חשובה לא פחות להסביר לעובד סיבה זו. שלב זה בא לידי ביטוי ברור בקוד הנוהג של ACAS: הודעה על בעיה (כגון התנהגות בלתי הולמת או ביצועים ירודים) חייבת להכיל מידע מספיק שהעובד יכול להכין עצמו כדי להשיב עליה למעסיק בפגישה איתו. במידת הצורך, מעסיקים צריכים לשתף את הראיות בכתב נגד העובד עם העובד עצמו – או לשתף את הנתונים העומדים בבסיס הודעת הפיטורין ולהסביר מדוע היא יצרה חשש לגבי ביצועי העובד. במקרים פשוטים שבהם הבעיה מובנת לעובד, צעד זה לא ייצור קושי. גילוי של המדדים או דירוגי הלקוחות של העובד בהשוואה לאלה של עובדים אחרים או הציון הממוצע שלהם יכול להיות מועבר אוטומטית בקלות. כאשר התהליכים האלגוריתמיים מורכבים יותר או שהנתונים אינם מובנות לעובד, הדבר יוצר אבן נגף אמיתית להגינות הפרוצדורלית של פיטורים אוטומטיים. אם העובד אינו יכול להבין את הסוגיות שהמעסיק מבקש להטיל עליהן משמעת, השלבים הפרוצדורליים הנותרים הופכים לחסרי משמעות (מענה לטיעוני המעסיק, הזדמנויות לשיפור וכו').
ב. הצורך בהתערבות אנושית בעלת משמעות
מרכיב מרכזי בקביעה כי הפיטורים היו הוגנים מבחינה פרוצדורלית הוא להוכיח כי המעסיק ניהל את החקירות הדרושות כדי לקבוע את עובדות המקרה. בתי הדין בודקים אם המעסיק האמין באמת ובתמים כי העובד נהג בצורה בלתי הולמת או ביצע ביצועים ירודים והאם הייתה עילה סבירה לאמונה זו (ראה DB Schenker Rail (UK) Ltd v Doolan)[15]. בפיטורים אוטומטיים, ה'עילה' היחידה העומדת בבסיס אמונת המעסיק היא הנתונים שנאספו על עבודתו של העובד. אני טוענת שהנתונים צריכים להיות רק תחילת החקירה, וכי על המעסיק ללכת רחוק יותר כדי "להסתכל מעבר" לנתונים וההמלצה לפטר: האם ערכת הנתונים נגועה בהטיה? האם ייתכן שהבעיות נגרמו מבעיות מחוץ לשליטת העובד? במיוחד כאשר המעסיק עצמו אינו שולט או מבין את פעולת האלגוריתם, עליו להיות מחוץ ל"טווח התגובות הסבירות" כדי שמעסיק יוכל להסתמך אך ורק על המלצה לפטר ללא חקירה נוספת (מבחן זה נקבע בפסק דין Sainsburys v Hitt[16]). חקירה כזו תדרוש התערבות אנושית בתהליך.
נראה כי אינטראקציה אנושית משמעותית או התערבות נחוצה גם בשלבים הנותרים של ההליך המשמעתי. קוד ההתנהלות של ACAS קובע כי לעובד חייבת להיות הזדמנות להגיב לטענות או לחששות, לבחון את הראיות נגדו ולהציג את המקרה גם בבית הדין. זה עשוי להיות כרוך בהסברים מדוע הנתונים על הביצועים שלו סוטים מהנורמה הרצויה. לדוגמה, לירה – נהגת נוספת של אמזון פלקס – בילתה לעתים שעה בתור לקבלת החבילות שלה במחסן, סיטואציה שדחקה אותה מחוץ לתוכנית המשלוחים שלה מתחילת היום. היכולת של העובד לקדם גורמים מסוג זה תהיה חיונית להשגת הגינות פרוצדורלית. תמיד יש לוודא קיומו של הליך הוגן ולהביא בחשבון גורמים לטובת העובד, גם במקרים של התנהגות חמורה (ראה קוד ACAS, סעיף 23 ופסק דין Trusthouse Forte v Adonis[17]). נראה כי תהליכי סיום עבודה אוטומטיים אינם מתאימים להתמודדות עם גורמים מותאמים אישית כאלה. החברה חייבת להציב אדם שיהיה כשיר לשמוע את חששותיו או הסבריו של העובד ולמדוד אם יש לעקוב אחר ההמלצה האלגוריתמית בנסיבות הספציפיות המוצגות.
בהשוואה לזכות לביקורת אנושית בתוך משטר הגנת הנתונים, הזכות לערעור כלולה בקוד ההתנהלות של ACAS. כאן, יש לאפשר לעובד לערער בפני אדם נטול פניות (כגון מנהל אחר בארגון) על כל החלטה רשמית המתקבלת. בתי הדין לעבודה מתייחסים לדרישה זו ברצינות: רק במקרים חריגים שבהם הערעור היה חסר תועלת יהיה פיטורים ללא זכות ערעור הוגנים. מעסיקים עשויים להיות מסוגלים להפוך תהליכים אחרים לאוטומטיים, כגון הודעות, אזהרות ומתן הזדמנויות לשיפור, אך שלב זה בהליך הוגן ימנע ממעסיקים להפוך את כל תהליך הפיטורים לאוטומטי.
לפיכך, חוק הפיטורים שלא כדין יכול ללכת רחוק יותר מהשילוב של סעיף 14 DPA וסעיף 22 GDPR באסדרת פיטורים אוטומטיים של עובדים/מועסקים. הוא מעניק זכות לביקורת אנושית, בדמות ערעור על החלטה משמעתית, כמו גם זכות לקבל הודעה על הבעיה ועל הראיות התומכות בה, הזכות להגיב לראיות אלה, הזכות לחקירה סבירה ולדרישה לזהות ולהסביר סיבה הוגנת לפיטורים. ניתן להרחיב דרישות אלו. פיטורים אוטומטיים עלולים להפוך באופן אוטומטי ללא הוגנים בכל הנסיבות, מה שמחזק את הצורך בהתערבות אנושית. ניתן להרחיב ולשפר את קוד ההתנהלות של ACAS על ידי הכללת ההמלצות בדו"ח של Patrick Briône[18], שנכתב עבור ACAS עצמה. מתוך רלוונטיות להתמודדות עם ADM בנושא משמעת ופיטורים, ההמלצה המרכזית היא להגביל את השימוש באלגוריתמים רק כדי להציע ייעוץ: "למנהל אנושי תמיד צריכה להיות אחריות סופית לכל החלטה במקום העבודה." ניתן להשלים המלצה זאת על ידי הדרכה נוספת למעסיקים שיבינו את הבעיות שהם מבקשים לפתור ואת התהליכים שהם מיישמים ושיפעילו שיקול דעת למציאת חלופות לתהליכי ניהול אלגוריתמיים לפני יישומם בעסק.
המגבלות של חוק הפיטורין שלא כדין
בדיוק כפי שהממשלה ציינה כי לסעיף 22 יש היקף מוגבל, לחוק הפיטורים שלא כדין יש ליקויים משמעותיים במיוחד בהקשר להחלטות הפיטורים האוטומטיות. סריקה של דיווחים בתקשורת מתחומי משפט שונים מגלה כי כל אלה שעובדים בעבודה מזדמנת, או בהענקת שירות לפי דרישה או באמצעות פלטפורמה הם אותם מועסקים שיהיו נתונים לניטור נרחב, לניהול אלגוריתמי ובסופו של דבר גם לפיטורים אוטומטיים. "נהגי החוזים" של אמזון פלקס, כמו סטיבן ולירה, ונהגי אובר בבריטניה חוו הליך שדומה לפיטורים אוטומטיים. האחרונים סווגו לאחרונה כ"עובדים" במשפט האנגלי,[19] אך שתי הקבוצות הללו יעמדו בפני מאבק מקדים על זכאותם לתבוע את הזכות שלא להיות מפוטר שלא בהגינות.
רק 'עובדים' המועסקים באמצעות חוזה העסקה מוגנים על ידי חוק הפיטורים שלא כדין. מתוך מגוון הסיווגים, מעמד משפטי מסוים זה הוא הקשה ביותר להשגה: הוא מוגבל על ידי התייחסות לקבוצת מבחנים שהאדם העובד חייב לספק על מנת לתבוע את הזכות הרלוונטית. קבוצת עובדים נאבקה בעבר כדי להכיר בהם כעובדים, וזה ככל הנראה יחול גם על אלה שעובדים עבור פלטפורמות או על בסיס "לפי דרישה". יתר על כן, ברוב המקרים, הזכות שלא להיות מפוטר באופן לא הוגן נכנסת לפעולה רק לאחר שנתיים של שירות רציף אצל המעסיק[20] – ובכך מרחיקה עובדים חדשים מהיקף ההגנה שלו. עובדים חדשים עשויים להיות הפגיעים ביותר לגחמות של תהליך פיטורים אוטומטי. עובדים ותיקים יותר עשויים ליצור תובנות לגבי הציפיות האלגוריתמיות ולהתאים עצמם אליהם, הזדמנות שאין לעובדים חדשים אם הם מפוטרים לאחר תקופת שירות קצרה.
במסגרת הבלוג הזה, יו קולינס[21] ציטט מגוון של אנומליות שנוצרו על ידי המבחנים הקיימים לבחינת סטאטוס של עובד. בחקירת החוקיות של פיטורים אוטומטיים, נראה שמצאנו סתירה נוספת. חוק פיטורים שלא כדין עשוי להתברר כיעיל בהסדרת החלטות פיטורים אוטומטיות, אך המועסקים שסביר ביותר שיהיו כפופים להחלטות פיטורין כאלו הם גם הקבוצה שסביר ביותר שלא תוכר כבעלת מעמד של "עובד" על ידי מבחני עובד-מעסיק. מהלך לטובת שכלול מבחני עובד-מעסיק כוללנים ומכילים יותר יתמודד עם אנומליה זו, אך בינתיים אובדן זכויות חלופיות כגון סעיף 22 GDPR וסעיף 14 DPA יורגש בצורה החדה ביותר על ידי אלה שכבר נדחקים לשוליים וחשופים לפרקטיקות משמעת חמורות.
[1] לצורך פוסט זה, אני מניחה שהמעסיק הוא בעל השליטה בנתונים כצד ש'קובע את המטרות והאמצעים לעיבוד נתונים אישיים' לפי סעיף 4(7) GDPR ויש לו אחריות ליישום אמצעים לציות ל- GDPR לפי סעיף 24(1). המעסיק עשוי להיות גם מעבד הנתונים אם הוא אוסף וניתח את הנתונים עצמם.
פיליפה קולינס היא מרצה למשפטים באוניברסיטת בריסטול. מחקריה מתמקדים בדיני עבודה, זכויות אדם וטכנולוגיה במקום העבודה. ספרה של פיליפה, "לשים את זכויות האדם בעבודה", יפורסם על ידי OUP בסוף 2021. היא נהנתה מהערות של עורכי הבלוג, כמו גם מדיונים עם סנדי גולד וג'ו אטקינסון, בכתיבת הבלוג הזה.
Dr Philippa Collins, Lecturer in Labour Law and Human Rights, University of Bristol, originally published by the UK Labour Law Blog 19 October 2021, available at https://uklabourlawblog.com.
Translation and explanatory notes by Prof. Hadara Bar-Mor, Netanya Academic College, Israel.
We thank Maayan Niezna for her excellent comments.
[1] Automated Dismissal Decisions, Data Protection and The Law of Unfair Dismissal – by Philippa Collins
Automated Dismissal Decisions, Data Protection and The Law of Unfair Dismissal – by Philippa Collins
[2] ראו באנגליה: Data Protection Act 2018
[3] General Data Protection Regulation (EU) 2016/679 (GDPR) היא רגולציה באיחוד האירופי העוסקת בהגנת נתונים ופרטיות באיחוד האירופי ובמרחב הכלכלי האירופי.
[4][4] הגדרת בקר הנתונים מאתר נציבות האיחוד האירופי: https://ec.europa.eu/info/law/law-topic/data-protection/reform/rules-business-and-organisations/obligations/controller-processor/what-data-controller-or-data-processor_en
בקר הנתונים קובע את המטרות ואת האמצעים שבאמצעותם מעובדים נתונים אישיים. עובדים המעבדים נתונים אישיים בתוך הארגון עושים זאת כדי למלא את המשימות כבקר נתונים… לדוגמה: למבשלת בירה A יש עובדים רבים. היא חותמת על חוזה עם חברת תיווך (payroll) כדי שזו תשלם את שכר העובדים. המבשלה נותנת הוראות לחברת התיווך בנושא מועדי תשלום השכר, פיטורי עובדים העלאת שכרם, ומספקת את כל שאר הפרטים עבור תלוש השכר והתשלום. חברת התיווך מספקת את מערכת ה- IT ומאחסנת את נתוני העובדים. מבשלת הבירה היא בקר הנתונים וחברת המשכורות היא מעבד הנתונים.
[5] FINAL_TIGRR_REPORT__1_.pdf
[6] ההתייחסות במאמר היא חלופית: או עובד, או מועסק באמצעות פלטפורמה שלא מוגדר בהכרח כעובד אלא "נושא נתונים" אך כפוף ונהנה מתחולת חוק הגנת הנתונים.
[7] https://techcrunch.com/2021/03/12/dutch-court-rejects-uber-drivers-robo-firing-charge-but-tells-ola-to-explain-algo-deductions/ כאן קבוצה של נהגי אובר בבריטניה פתחה בהליך משפטי נגד חברת הבת של אובר בהולנד בנוגע לגישה לנתונים אישיים ואחריות אלגוריתמית. בהחלטה לטובת אובר, בית המשפט לא מצא שמערכת השיגור (האוטומטית) שלה מביאה ל"השפעה משפטית או משמעותית דומה" על הנהגים על פי חוקי האיחוד האירופי – ולכן איפשר להחיל אותה ללא פיקוח אנושי נוסף.
[8] Information Commissioner’s Office (ICO) Guidance: רשות עצמאית שהוקמה בבריטניה כדי לשמור על זכויות מידע לטובת הציבור, על קידום פתיחות גופים ציבוריים ופרטיות נתונים של אנשים פרטיים. https://ico.org.uk/
[9] לצורך פוסט זה, אני מניחה כי המעסיק הוא בקר הנתונים ש'קובע את המטרות והאמצעים לעיבוד נתונים אישיים' לפי סעיף 4(7) GDPR וכי יש לו אחריות ליישום אמצעים לעמידה בתנאי ה- GDPR לפי סעיף 24(1). המעסיק עשוי להיות גם מעבד הנתונים אם הוא אוסף ומנתח את הנתונים עצמם.
[10] Information Commissioner’s Office (ICO)
[11] במאמרם:
Lilian Edwards, Michael Veale, Enslaving the Algorithm: From a "Right to an Explanation" to a "Right to Better Decisions"? IEEE Security & Privacy (2018) 16(3), 46–54
[12] Employment Relations Act, 1996
[13]https://www.acas.org.uk/acas-code-of-practice-for-disciplinary-and-grievance-procedures/html Advisory, Conciliation and Arbitration Service
Acas הוא גוף ציבורי בריטי שמספק ייעוץ לעובדים ומעסיקים, על זכויות במקום העבודה, כללים ושיטות עבודה מומלצות. כמו כן הם מעניקים גם הכשרה וסיוע לפתרון סכסוכי עבודה. גוף זה גם מעצב קודי התנהגות במקומות עבודה.
[14] https://ioewec.newsletter.ioe-emp.org/industrial-relations-and-labour-law-february-2021/news/article/italy-bologna-labour-court-held-a-previously-used-algorithm-of-a-platform-company-as-discriminatory
[15] [2010] UKEAT 0053_09_1304 https://www.bailii.org/uk/cases/UKEAT/2011/0053_09_1304.html
[16] [2003] ICR 111, [2003] IRLR 23, [2002] Emp LR 1273, [2002] EWCA Civ 1588 https://www.bailii.org/ew/cases/EWCA/Civ/2002/1588.html
[17] [1984] IRLR 382
[18] My boss the algorithm: an ethical look at algorithms at the workplace https://www.acas.org.uk/my-boss-the-algorithm-an-ethical-look-at-algorithms-in-the-workplace/html
[19] Uber BV and others (Appellants) v Aslam and others (Respondents)
On appeal from: [2018] EWCA Civ 2748
[20] Employment Rights Act, 1996 סעיף 108
[21] Hugh Collins, A missed Opportunity of a Unified Test for Employment Status
A Missed Opportunity of a Unified test for Employment Status – Hugh Collins